53 resultados para Canto-Instrucción y estudio


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo de Tesis ha abordado el objetivo de dar robustez y mejorar la Detección de Actividad de Voz en entornos acústicos adversos con el fin de favorecer el comportamiento de muchas aplicaciones vocales, por ejemplo aplicaciones de telefonía basadas en reconocimiento automático de voz, aplicaciones en sistemas de transcripción automática, aplicaciones en sistemas multicanal, etc. En especial, aunque se han tenido en cuenta todos los tipos de ruido, se muestra especial interés en el estudio de las voces de fondo, principal fuente de error de la mayoría de los Detectores de Actividad en la actualidad. Las tareas llevadas a cabo poseen como punto de partida un Detector de Actividad basado en Modelos Ocultos de Markov, cuyo vector de características contiene dos componentes: la energía normalizada y la variación de la energía. Las aportaciones fundamentales de esta Tesis son las siguientes: 1) ampliación del vector de características de partida dotándole así de información espectral, 2) ajuste de los Modelos Ocultos de Markov al entorno y estudio de diferentes topologías y, finalmente, 3) estudio e inclusión de nuevas características, distintas de las del punto 1, para filtrar los pulsos de pronunciaciones que proceden de las voces de fondo. Los resultados de detección, teniendo en cuenta los tres puntos anteriores, muestran con creces los avances realizados y son significativamente mejores que los resultados obtenidos, bajo las mismas condiciones, con otros detectores de actividad de referencia. This work has been focused on improving the robustness at Voice Activity Detection in adverse acoustic environments in order to enhance the behavior of many vocal applications, for example telephony applications based on automatic speech recognition, automatic transcription applications, multichannel systems applications, and so on. In particular, though all types of noise have taken into account, this research has special interest in the study of pronunciations coming from far-field speakers, the main error source of most activity detectors today. The tasks carried out have, as starting point, a Hidden Markov Models Voice Activity Detector which a feature vector containing two components: normalized energy and delta energy. The key points of this Thesis are the following: 1) feature vector extension providing spectral information, 2) Hidden Markov Models adjustment to environment and study of different Hidden Markov Model topologies and, finally, 3) study and inclusion of new features, different from point 1, to reject the pronunciations coming from far-field speakers. Detection results, taking into account the above three points, show the advantages of using this method and are significantly better than the results obtained under the same conditions by other well-known voice activity detectors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los últimos años es notable la proliferación de trabajos y estudios que tratan sobre las características del hormigón autocompactante. De ellos, la durabilidad es el aspecto menos tratado, siendo especialmente escasos los que se centran en un problema particular de esta durabilidad, como es la penetración de cloruros, un aspecto básico para todos los elementos estructurales sometidos a un ambiente marino. Esta será la línea básica del presente trabajo, que vendrá acompañada de otra serie de ensayo que permitan ratificar los resultados obtenidos. Debido a lo anteriormente expuesto, el objetivo general de esta investigación es estudiar la influencia de la adición de nano-sílice en aspectos tanto microestructurales como durables en hormigones autocompactantes. Dado que el objetivo general planteado es muy ambicioso y requiere tiempo y multitud de ensayos combinando numerosas variables, este trabajo de investigación se centra en los siguientes objetivos particulares dentro de la línea general de la investigación: Evaluar los cambios que se producen en las propiedades en estado fresco de los distintos hormigones ensayados; Evaluar los cambios que se producen en las propiedades mecánicas de los hormigones estudiados; Determinar los cambios de la matriz porosa de los distintos hormigones ensayados y determinar los cambios en los componentes hidratados de la matiz de cemento. Para cumplir con este objetivo, se ha procedido a comparar el comportamiento de cuatro tipos de hormigón con el mismo cemento: Un hormigón convencional sin adición, un hormigón autocompactante sin adición, un hormigón autocompactante con 2,5 % de adición de nano sílice y un hormigón autocompactante con 5 % de adición de nano sílice. Las etapas seguidas en este trabajo son las siguientes: Revisión bibliográfica relativa a los hormigones autocompactantes, y a la adición de nano-sílice.; Estudio y elección de las dosificaciones para los hormigones objeto de estudio: hormigón convencional, un hormigón autocompactante sin adiciones y hormigones autocompactantes con adición de nano-sílice; Evaluación de los hormigones, convencional y autocompactantes, en estado fresco en base a la normativa vigente y a las exigencias de la Instrucción del Hormigón Estructural (EHE-08); Evaluación de las propiedades mecánicas de los hormigones en estado endurecido mediante ensayo de resistencia a compresión; Caracterización microestructural de los hormigones mediante ensayos de porosimetría por intrusión de mercurio (PIM) y termoanálisis (TG-ATD); Evaluación del comportamiento de los hormigones frente a ensayos específicos enfocados a su durabilidad, como son los de resistividad eléctrica y de penetración de cloruros y estudio comparativo de los resultados obtenidos y establecimiento de relaciones entre la dosificación y el comportamiento de cada hormigón, de cara a poder fijar recomendaciones de uso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dicho proyecto constará: 1º) De una memoria general descriptiva de la cuenca del Río Guadalmedina expresiva de los trabajos de corrección y de repoblación ejecutados en la misma0 Dicha memoria tendrá un carácter descriptiva) conciso y justificativo. Se recogerán en la misma los conocimientos indispensables de geología climatología, topografía e hidrografía, como base indispensable para el proyectado estudio de corrección y repoblación de la rambla. 2º) Justificación de la corrección y repoblación que se propone, con expresión de los daños originados y posibles en el porvenir y evaluación aproximada de los mismos de orden económico y social. 3º) El plan general de corrección y de repoblación constará: a) Estudio del estado actual de torrencialidad. Crecidas, pendientes de compensación y cálculo del perfil de compensación. Alturas acumuladas, elección de los emplazamientos de los diques y demás obras de corrección que se proponen y su justificación. Cálculo de los diques medios si procediere y su representación gráfica. Conveniencia o no del empleo de drenes en caso de producirse deslizamientos. b) Restauración forestal. Vegetación espontánea y estudio de su proceso evolutivo, deduciendo del mismo las más convenientes indicaciones biológicas para la elección de especies. Elección del método más apropiado de repoblación. Conveniencia económico-selvícola de crear masas puras o mezcladas. Número de plantas por unidad a real y precios unitarios de su repoblación. Cuidados culturales que deben aplicarse a los repoblados. Propuesta de creación de un vivero a los fines de la repoblación proyectada. Su localización, superficie, cerramiento, labores que precisa, abonos, siembras y riegos. Precios unitarios de creación del vivero. Presupuesto. 4°) Presupuestos de corrección y de repoblación. Plano general y del perfil longitudina a escala de 1: 100 y de los transversales de 1: 200 o más apropiadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Tesis Doctoral que a continuación se presenta se ha desarrollado en el marco de trabajo de los componentes fotónicos pasivos conocidos como redes de difracción de Bragg en fibra. En primer lugar, se ha hecho una breve revisión histórica de la evolución de los sistemas de comunicaciones ópticas por fibra, para situar el nacimiento de estas redes de difracción y poder explicar porqué se han convertido en un componente clave para la evolución de las futuras redes ópticas. En la primera parte de la Tesis, que se compone de los Capítulos 3, 4 y 5, se desarrolla el modelo general que se utilizará para la caracterización y estudio de las redes de difracción, y se aplica al proceso de crecimiento de estas redes en el núcleo de la fibra y a la caracterización completa de los diferentes tipos de redes de difracción. El modelo desarrollado constituye la base de los resultados que han sido obtenidos, y está basado en la discretización del componente por debajo del periodo de red, en teoría de matrices de transferencia y en propagación de ondas electromagnéticas a través de medios dieléctricos. Este modelo ha permitido explicar los distintos fenómenos que se observan experimentalmente en el proceso de fotoimprimir la red de difracción en el núcleo de la fibra, así como caracterizar completamente al dispositivo mediante el cálculo de los campos internos, en el dominio de la frecuencia y en el dominio del tiempo, que viajan a su través en los sentidos codireccional y contradireccional. La segunda parte de la Tesis está orientada a la aplicación de herramientas de teoría de señal al análisis y síntesis de redes de difracción. Primeramente, en el Capítulo 6 se desarrolla un algoritmo, basado en las transformadas de Hilbert y Wienner-Lee, para recuperar la característica de fase del coeficiente de reflexión en campo a partir de su característica en amplitud. Los resultados demuestran que esta reconstrucción es posible cuando el coeficiente de reflexión en campo es una función de fase mínima. El Capítulo 7 se orienta más a la síntesis de redes de difracción desde una nueva perspectiva, haciendo uso de la ya conocida aproximación de Fourier e introduciendo el análisis Tiempo - Frecuencia para la identificación de estructuras de red de difracción y reconstrucción del periodo de red. La tercera y última parte de la Tesis (Capítulo 8) se centra en la propuesta de nuevos dispositivos fotónicos basados en redes de difracción, para su aplicación en sistemas de comunicaciones ópticas. En particular, se ha trabajado en el campo de los sistemas de comunicaciones con multiplexación por longitud de onda, para los cuales se han propuesto un selector de canal sintonizable que trabaja en transmisión, y un nuevo diseño de red de difracción en fibra cuya característica de filtrado espectral se aproxima al filtro ideal. Para finalizar, en el Capítulo 9 se resumen las conclusiones que se han obtenido y se describen las líneas futuras de trabajo que quedan abiertas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los últimos años hemos sido testigos de la creciente demanda de software para resolver problemas cada vez más complejos y de mayor valor agregado. Bajo estas circunstancias, nos podemos hacer la siguiente pregunta: ¿Está preparada la industria de software para entregar el software que se necesita en los próximos años, de acuerdo con las demandas del cliente? Hoy en día, muchos expertos creen que el éxito de esta industria dependerá de su capacidad para gestionar los proyectos, las personas y los recursos. En este sentido, la gestión de proyectos es un factor clave para el éxito de los proyectos software en todo el mundo. Además, considerando que las Pequeñas y Medianas Empresas de software (PYMEs) representan el 99,87% de las empresas españolas, es vital para este tipo de empresas la implementación de los procesos involucrados con la gestión de proyectos. Es cierto que existen muchos modelos que mejoran la eficacia de la gestión de proyectos, pero la mayoría de ellos se centra únicamente en dos procesos: la planificación del proyecto y la monitorización y control del proyecto, ninguno de los cuales a menudo es asequible para las PYMEs. Estos modelos se basan en el consenso de un grupo de trabajo designado para establecer cómo debe ser gestionado el proceso software. Los modelos son bastante útiles ya que proporcionan lineamientos generales sobre dónde empezar a mejorar la gestión de los proyectos, y en qué orden, a personas que no saben cómo hacerlo. Sin embargo, como se ha dicho anteriormente, la mayoría de estos modelos solamente funcionan en escenarios dentro de las grandes empresas. Por lo tanto, es necesario adaptar los modelos y herramientas para el contexto de PYMEs. Esta tesis doctoral presenta una solución complementaria basada en la aplicación de un metamodelo. Este metamodelo es creado para mejorar la calidad de los procesos de la gestión de proyectos a través de la incorporación de prácticas eficaces identificadas a través del análisis y estudio de los modelos y normas existentes relacionadas con la gestión de proyectos. viii ProMEP – Metamodelo para la gestión de proyectos Por lo tanto, el metamodelo PROMEP (Gestión de Proyectos basada en Prácticas Efectivas) permitirá establecer un proceso estándar de gestión de proyectos que puede adaptarse a los proyectos de cada empresa a través de dos pasos: En primer lugar, para obtener una fotografía instantánea (o base) de los procesos de gestión de proyectos de las PYMEs se creó un cuestionario de dos fases para identificar tanto las prácticas realizadas y como las no realizadas. El cuestionario propuesto se basa en el Modelo de Madurez y Capacidad Integrado para el Desarrollo v1.2 (CMMI-DEV v1.2). Como resultado adicional, se espera que la aplicación de este cuestionario ayude a las PYMEs a identificar aquellas prácticas que se llevan a cabo, pero no son documentadas, aquellas que necesitan más atención, y aquellas que no se realizan debido a la mala gestión o al desconocimiento. En segundo lugar, para apoyar fácilmente y eficazmente las tareas de gestión de proyectos software del metamodelo PROMEP, se diseñó una biblioteca de activos de proceso (PAL) para apoyar la definición de los procesos de gestión de proyectos y realizar una gestión cuantitativa de cada proyecto de las PYMEs. Ambos pasos se han implementado como una herramienta computacional que apoya nuestro enfoque de metamodelo. En concreto, la presente investigación propone la construcción del metamodelo PROMEP para aquellas PYMEs que desarrollan productos software de tal forma que les permita planificar, monitorizar y controlar sus proyectos software, identificar los riesgos y tomar las medidas correctivas necesarias, establecer y mantener un conjunto de activos de proceso, definir un mecanismo cuantitativo para predecir el rendimiento de los procesos, y obtener información de mejora. Por lo tanto, nuestro estudio sugiere un metamodelo alternativo para lograr mayores niveles de rendimiento en los entornos de PYMEs. Así, el objetivo principal de esta tesis es ayudar a reducir los excesos de trabajo y el tiempo de entrega, y aumentar así la calidad del software producido en este tipo de organizaciones. Abstract In recent years we have been witnessing the increasing demand for software to solve more and more complex tasks and greater added value. Under these circumstances, we can ourselves the following question: Is the software industry prepared to deliver the software that is needed in the coming years, according to client demands? Nowadays, many experts believe that the industry’ success will depend on its capacity to manage the projects, people and resources. In this sense, project management is a key factor for software project success around the world. Moreover, taking into account that small and medium-sized software enterprises (SMSe) are the 99.87% of the Spanish enterprises, it is vital for this type of enterprises to implement the processes involved in project management. It is true that there are many models that improve the project management effectiveness, but most of them are focused only on two processes: project planning and project monitoring and control, neither of which is affordable for SMSe. Such models are based on the consensus of a designated working group on how software process should be managed. They are very useful in that they provide general guidelines on where to start improving the project management, and in which order, to people who do not know how to do it. However, as we said, the majority of these models have only worked in scenarios within large companies. So, it is necessary to adapt these models and tools to the context of SMSe. A complementary solution based on the implementation of a metamodel is presented in this thesis. This metamodel is created to improve the quality of project management processes through the incorporation of effective practices identified through the analysis and study of relevant models and standards related to project management. Thus, the PROMEP (PROject Management based on Effective Practices) metamodel will allow establishing a project management standard process to be tailored to each enterprise’s project through two steps: Firstly, to obtain a baseline snapshot of project management processes in SMSe a two-phase questionnaire was created to identify both performed and nonperformed practices. The x ProMEP – Metamodelo para la gestión de proyectos proposed questionnaire is based on Capability Maturity Model Integration for Development v1.2. As additional result, it is expected that the application of the questionnaire to the processes will help SMSe to identify those practices which are performed but not documented, which practices need more attention, and which are not implemented due to bad management or unawareness. Secondly, to easily an effectively support the software project management tasks in the PROMEP metamodel, a Process Asset Library (PAL) is designed to support the definition of project management processes and to achieve quantitative project management in SMSe. Both steps have been implemented as a computational tool that supports our metamodel approach. Concretely, the present research proposes the accomplishment of the PROMEP metamodel for those SMSe which develop software products and enable them to plan, supervise and control their software projects, identify risks and take corrective actions, establish and maintain a set of process assets, define quantitative models that predict the process performance, and provide improvement information. So, our study suggests an alternative metamodel to achieve higher performance levels in the SMSe environments. The main objective of this thesis is help to reduce software overruns and delivery time, and increase software quality in these types of organizations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las tecnologías de realidad acústica virtual ofrecen una herramienta muy apropiada para la reconstrucción del patrimonio inmaterial del sonido de los recintos históricos. Este trabajo es parte de un proyecto de investigación cuyo objetivo es la restauración virtual del sonido del Antiguo Rito Hispánico y que consiste en la auralización del Canto Mozárabe en una serie de iglesias pre-Románicas de la península ibérica. En este caso se presentan los resultados más relevantes de las auralizaciones realizadas para la iglesia de Santa María de Melque. Para ello se ha elaborado un modelo acústico virtual de la iglesia en las condiciones que, según la documentación arqueológica, tenía el recinto original, se han realizado grabaciones anecoicas de una serie de piezas del repertorio primitivo del Canto Mozárabe y se han efectuado las auralizaciones correspondientes a diferentes configuraciones litúrgicas del Antiguo Rito Hispánico. ABSTRACT Acoustic Virtual Reality technology offers a highly appropriate tool for the reconstruction of the acoustic intangible heritage of the sound of historical enclosures. This work is part of a research project whose aim is the virtual restoration of the sound of the Old Hispanic Rite, auralizing the Mozarabic Chant in Pre-Romanesque churches of the Iberian Peninsula. This paper shows the most relevant results of the auralization of Santa María de Melque church. For that purpose, an acoustic virtual model has been created according to archaeological documentation of the original building conditions, anechoic recordings of several Early Mozarabic Chant musical pieces have been recorded and auralization corresponding to Old Hispanic liturgical Rite multiple settings has been completed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo del trabajo fin de máster ha sido el estudio de la capacidad de los modelos de daño escalar en reproducir la localización de deformaciones en el hormigón. Para ello se ha utilizado un modelo de daño local con el ablandamiento regularizado (aproximación de fisura difusa) y un modelo de daño no local con formulación integral. Los análisis numéricos se han realizado con el código de elementos finitos Code-Aster. Las actividades realizadas en el trabajo fin de máster han sido: - resumen de los modelos existentes para la reproducción del fallo material. - descripción y estudio del comportamiento de un modelo de daño local "solo tracción" para el hormigón. - regularización del ablandamiento en el modelo de daño local para el modo de fractura tipo I. - descripción de los modelos de daño no local, en particular la formulación de gradiente implícito. - estudio del comportamiento del modelo de daño no local para el ensayo de extensión uniaxial. - aplicación de los modelos de daño local y no local a ensayos tridimensionales. Los elementos más destacables del trabajo son: - Construir un modelo de fisura difusa a partir del modelo de daño local “solo tracción” existente en Code-Aster. Para ello se ha derivado la pendiente de la rama de ablandamiento en la ley tensión-deformación uniaxial en función de los parámetros : (1) densidad de área de energía de fractura y (2) tamaño característico de la malla. - Estudio del comportamiento del modelo de daño no local en el ensayo de extensión uniaxial. En particular estudiar la influencia que los parámetros l (longitud característica de la formulación no local) y m (pendiente de la rama de ablandamiento en la ley tensión-deformación uniaxial) en la disipación del modelo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el presente trabajo se lleva a cabo un estudio basado en datos obtenidos experimentalmente mediante el ensayo a flexión de vigas de madera de pino silvestre reforzadas con materiales compuestos. Las fibras que componen los tejidos utilizados para la ejecución de los refuerzos son de basalto y de carbono. En el caso de los compuestos de fibra de basalto se aplican en distintos gramajes, y los de carbono en tejido unidireccional y bidireccional. El material compuesto se realizó in situ, simultáneamente a la ejecución del refuerzo. Se aplicaron en una y en dos capas, según el caso, y la forma de colocación fue en ?U?, adhiriéndose al canto inferior y a las caras laterales de la viga mediante resina o mortero epoxi. Se analiza el comportamiento de las vigas según las variables de refuerzo aplicadas y se comparan con los resultados de vigas ensayadas sin reforzar. Con este trabajo queda demostrado el buen funcionamiento del FRP de fibra de basalto aplicado en el refuerzo de vigas de madera y de los tejidos de carbono bidireccionales con respecto a los unidireccionales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Plaza Navona representa una de las visitas obligadas de Roma, pero solo algunos advertirán en ella la presencia española en la sala de exposiciones del Instituto Cervantes o en la inmediata Libreria Española. Todavía serán menos los que se percatarán de la huella española dejada en aquella iglesia de fachada anónima situada, en el extremo sur de la plaza: la antigua iglesia de Santiago de los Españoles. La presente tesis pretende, utilizando el dibujo como guía, herramienta y fin del proceso de análisis y estudio, reconstruir el proceso de conformación y construcción de la que fue iglesia española principal, cuya fundación hace patente el destacado papel jugado por la “nación” castellana en Roma durante la Edad Media; y en torno a la que se aglutinaron las actividades religiosas, diplomáticas y financieras de los castellanos que vivieron en la actual capital italiana. Se intentará recrear en el tiempo la que es hoy la iglesia de Nuestra Señora del Sagrado Corazón, sometiéndola a una restitución gráfica disciplinada, homogénea y objetiva en la medida de lo posible de las varias etapas que la han caracterizadas, desde su fundación hasta cuando en 1878 España se deshizo de ella, ya en ruina, vendiéndola. Como nos comenta Gaetano Moroni, de todas las comunidades nacionales que se encontraban en Roma la española parece ser efectivamente una de las más rica y prestigiosa. Aunque lo que no cuenta Moroni no haya sido todavía demostrado, dicho enunciado resulta de todas formas interesante puesto que pone el acento sobre el hecho de que ya desde el siglo X parece ser habitual de ocupar y reutilizar antiguas ruinas, usándolas como base para la construcción de hospitales para los peregrinos. Esta operación se hizo particularmente frecuente sobre todo antes del Gran Jubileo de 1450: de hecho desde la primera mitad del Quattrocento se fundan distintas iglesias y hospitales nacionales para acoger y prestar una adecuada asistencia y socorro a los innumerables peregrinos que llegaban a la ciudad, edificios que se van construyendo sobre los restos de antiguos edificios de época romana. Prueba de ello es en efecto la fundación originaria de la iglesia y hospital de los Españoles que, parte del conjunto de edificios que compone la Plaza Navona, situada en el corazón de Campo Marzio y cuya posición y forma corresponden a la del antiguo Estadio de Domiciano, y que ahora es en sus dimensiones, en su imagen arquitectónica y en su consistencia material, el resultado de la definición proyectual y de las transformaciones que se llevaron a cabo sobre lo que quedaba del antiguo templo español del siglo XV, entre finales del ‘800 y los años 30 del siglo XX . Transformaciones devastadoras, huellas grabadas o canceladas que encuentran una justificación en los acontecimientos históricos reflejados en el patrimonio urbano. El análisis de todas las fuentes permite trazar, si no la totalidad, buena parte de las modificaciones que la antigua iglesia de Santiago ha sufrido. La construcción del templo se puede dividir en tres momentos decisivos: una primera etapa de fundación en 1450-1478 en la que la iglesia tenía fachada y entrada en via de la Sapienza, hoy Corso Rinascimento; una segunda de significativa ampliación hacia Plaza Navona con una nueva fachada monumental hacia ese espacio público en 1496-1500; y una última importante ampliación entre 1525-1526, llevada a cabo por el arquitecto Antonio da Sangallo el Joven. Tras la intensa vida del templo, en el siglo XVIII, éste cae en ruina y finalmente es vendido en 1878 a la orden de los misioneros franceses de Nuestra Señora del Sagrado Corazón que la reconvierten en iglesia reformando totalmente el conjunto en 1881, según proyecto de Luca Carimini. En 1936, en plena fase de rectificación de trazados urbanos por obra del régimen fascista, según proyecto de Arnaldo Foschini, se mutila su extremidad hacia vía de la Sapienza dejando su estado tal y como se contempla en la actualidad. ABSTRACT The objective of this thesis is the reconstruction of the design and edification process -using drawings and sketches as a guide, tool and the end of the analytical process- of a church which was once the preeminent Spanish church in medieval Rome, known today as Nostra Signora del Sacro Cuore (Our Lady of the Sacred Heart). The founding of this church illustrates the important role held by the Castillian “nation” in Rome during the Middle Ages. It was the focal point of all the religious, diplomatic and economic activities of the Castillian community residing in today’s Italian capital. The aim of this proyect is a recreation the church in time by submitting it to a disciplined, homogenous and objective graphic restitution of the various stages most characteristic the temple, starting from its foundation until 1878 when, in a state of ruins, the church was finally sold off by Spain. Gaetano Moroni once commented that of all the international communities found in Rome, the Spanish community seemed to be one of the wealthiest and most prestigious. Such a statement proves interesting as it emphasizes that starting in the 10th century we see there was a widespread custom of occupying and reusing old ruins for use as the bases of new constructions of hospitals for pilgrims. This custom became especially frequent just before the Jubilee Year of 1450: in fact, in the first half of the Quattrocento we see the founding of many different national churches and hospitals which provided shelter and care to the countless pilgrims arriving in the city, buildings which were constructed on top of the ruins of ancient buildings left over from Roman times. Proof of this is the original foundation of the Spanish church and hospital forming part of the Piazza Navona, built upon and following the outline of the Stadium of Domitian, in the heart of Campo Marzio. Now, in its dimensions, its architectural image and its material substance, it represents the predominant result of the planning definitions and the transformations which affected the old 15th-century Spanish temple. Ocurring between the end of the 19th century and the 1930s, the transformations were devastating, erasing original peculiarities and engraving new ones, transformations made justifiable by the historical events reflected in its urban environs. Analyzing all sources allows us to trace, even if not in entirety, still a sizeable portion of the modifications undergone by the old Church of Saint James. The construction of the temple can be divided into three decisive moments: its foundation, from 1450 to 1478, when the church’s façade and main door looked out on to the Via della Sapienza, today’s central avenue of Corso del Rinascimento; the second stage being a major expansion towards the Piazza Navona (1496-1500) with a new, monumental façade facing the public space; and the third was the last significant expansion, carried out from 1525 to 1526 by the architect Antonio da Sangallo the Younger. Despite an intense and bustling life during the Modern Age, in the 18th century the church began to fall into ruin and was finally sold in 1878 to the order of French missionaries of Our Lady of the Sacred Heart, who reconverted it into a church and completely renovated the structure in 1881 in a project supervised by Luca Carimini. In 1936, the corrective urban redesign of Rome carried out by the fascist regime and implemented by Arnaldo Foschini mutilated the part bordering Via della Sapienza, leaving it as we see it today.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La problemática actual de las canteras en la cercanía de las grandes ciudades, debido a la escasez de yacimientos y a las restricciones medioambientales, están poniendo en graves problemas el abastecimiento de áridos naturales y encareciendo su coste. El proyecto realizado responde a la actual necesidad de los países del mundo desarrollado por buscar soluciones a los problemas de abastecimiento de materias primas para la construcción en las zonas urbanizadas. La dependencia de nuestra sociedad hacia los recursos naturales y la consideración de su importancia hacen que se deban aprovechar al máximo, ya sea reciclando, reutilizando o revalorizando. Este proyecto está centrado en los residuos utilizados en el sector de la construcción y la viabilidad de su reutilización. Hemos evaluado la situación y la legislación acerca de la posibilidad de reciclar los materiales de la construcción para volverlos a introducir en el mercado; llevando a cabo una aplicación práctica en la Comunidad de Madrid. El proyecto se complementa con el diseño y estudio de viabilidad de una instalación de reciclaje de residuos de la construcción y demolición en este micromercado. ABSTRACT The current problems of the quarries in the vicinity of large cities, due to the scarcity of deposits and environmental restrictions are putting in serious trouble supplying natural aggregates and more expensive cost. The project undertaken reflects the current need for developed countries to seek solutions to the problems of supply of raw materials for construction in urbanized areas worldwide. The dependence of our society towards natural resources and consideration of its importance that should be made to maximize either by recycling , reusing or revalued. This project is focused on the waste used in the construction sector and feasibility of reuse. We have assessed the situation and legislation about the possibility of recycling construction materials for re- entering the market ; carrying out a practical application in the Community of Madrid. The project complements the design and feasibility study of a facility for recycling construction waste and demolition in this micro market

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se propone una metodología para la evaluación de soluciones constructivas de fachada para la rehabilitación de viviendas sociales, construidas entre el final de la Guerra Civil y la entrada en vigor de la norma básica NBE-CT-79, sobre condiciones térmicas en edificios. La metodología parte por un lado del análisis del estado actual en las viviendas, y por otro de la caracterización de las soluciones constructivas de rehabilitación, para la evaluación conjunta de las posibles mejoras. Esta evaluación persigue valorar su repercusión en la calidad del ambiente interior, y en la reducción de la demanda energética para acondicionamiento térmico. Se aplica sobre dos viviendas tipo que se han monitorizado en Madrid, utilizando dos soluciones innovadoras para rehabilitación energética, que disponen de documentos de idoneidad DIT y DITE. Una incorpora sobre la fachada tipo un aislamiento por el exterior, y otra incorpora un sistema de fachada ventilada, también sobre esta fachada tipo. El análisis de las viviendas se ha realizado a partir de la toma de datos, ensayos y estudio de detalle, llevados a cabo a lo largo de los años 2014 y 2015. El análisis de los sistemas de fachada se ha realizado a partir de ensayos controlados, comparando los resultados para tres tipos de fachada: una fachada tipo, habitual en la construcción de las viviendas de este periodo, y las dos soluciones innovadoras mencionadas. Una vez realizado el diagnóstico de las viviendas y el análisis de los ensayos de los sistemas constructivos, los resultados obtenidos se utilizan para generar los modelos de simulación sobre los que evaluar las mejoras. El periodo de estudio comprende cuatro décadas que comienzan en 1940, en un momento con escasos medios técnicos para la construcción, y que coincide con el comienzo del crecimiento en las grandes ciudades, y finaliza con la incorporación en la normativa de las exigencias de aislamiento en fachadas, de 1979. En la ciudad de Madrid las viviendas construidas en este periodo, suponen un 45% del total de viviendas censadas en 2011. La rehabilitación energética se ha ido incorporando en los sucesivos planes nacionales de vivienda como actuación protegida, y son muchos y muy diversos los planes de acción desde la administración en materia de vivienda social, tanto a nivel nacional como europeo. La vivienda queda incluida en materia de desarrollo y cohesión urbana, territorial y social, haciendo necesario un enfoque integrado. Los barrios de vivienda social forman parte de un patrimonio construido en los que los criterios de sostenibilidad toman especial interés y relevancia, ya que a través del tiempo se han construido como actores y testigos de su historia social, económica, ambiental y cultural. El diseño de los modelos y actuaciones de futuro se sustenta en la asimilación de esa complejidad y diversidad adquirida. Por otro lado, el actual reto que impone el calentamiento global obliga a plantear escenarios de adaptación y mejora en estos edificios, con una especial atención a la dependencia energética, el consumo de recursos, y emisiones de gases de efecto invernadero. La fachada es el elemento más importante de la envolvente en los edificios multifamiliares, siendo el lugar donde se produce el intercambio entre el ambiente interior y exterior. Su rehabilitación puede mejorar las prestaciones de habitabilidad en las viviendas, y disminuir la demanda de energía para alcanzar unas condiciones de confort estándar. El trabajo de investigación que se ha realizado, forma parte de una linea de investigación abierta sobre sistemas constructivos y habitabilidad en edificación. ABSTRACT A methodology for the evaluation of facade’s constructive solutions for social housing refurbishment, built between the end of the Civil War, and the entry into force of the basic standard NBE-CT-79 on thermal conditions in buildings is proposed. This methodology starts both with the analysis of the current status in dwellings, and with the characterization of rehabilitation’s constructive solutions performance, for the integrated assessment of improvements. The evaluation seeks to assess their impact on the indoor environmental quality, and on reducing the energy demand for thermal conditioning. The methodology is applied to two standard dwellings, that have been monitored in Madrid, with two innovative solutions for energy refurbishment, which have DIT and DITE assessment documents. One incorporates an exterior insulation, and the other incorporates a ventilated facade system. The analysis of the dwellings was made from data collection, testing and detailed study, conducted throughout 2014 and 2015. Analysis of the facade systems was made from controlled trials comparing the results for three types of façade: a standard usual facade common in the construction of this period, and the two innovative solutions mentioned. Based on the diagnosis of housing and systems analysis, the results are used to generate simulation models on which assess the improvements. The study period comprises four decades starting in 1940, at a time with limited technical resources for construction, which coincides with the beginning of growth in big cities, and ends with the incorporation in the 1979 legislation of the façade’s insulation requirements. In the city of Madrid the houses built in this period account for 45% of all households surveyed in 2011. As a “protected action” energy rehabilitation has been incorporated in successive national housing plans, and there are many and very different action plans from the Administration in the field of social housing, both at national and European level. An integrated approach is needed, due to the inclusion of housing in development and urban, territorial and social cohesion. Social housing neighborhoods are part of the built heritage. Sustainability criteria therefore are particularely relevant, since over time they have been built as actors and witnesses of their social, economic, environmental and cultural history. The design and performance of future models is based on the assimilation of this complexity and diversity acquired. On the other hand, the current challenge posed by global warming forces to consider scenarios for adaptation and improvement in these buildings, with particular attention to energy dependence, resource consumption, and greenhouse gas emissions. The facade is the most important element of the envelope in the multi-family buildings, being the place where the exchange occurs between the indoor and outdoor environments. Its rehabilitation can improve wellbeing in housing performance, and reduce energy demand to achieve standard comfort conditions. This research that has been done, is part of an open research line on construction and living conditions in buildings.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La capacidad de transporte es uno de los baremos fundamentales para evaluar la progresión que puede llegar a tener un área económica y social. Es un sector de elevada importancia para la sociedad actual. Englobado en los distintos tipos de transporte, uno de los medios de transporte que se encuentra más en alza en la actualidad, es el ferroviario. Tanto para movilidad de pasajeros como para mercancías, el tren se ha convertido en un medio de transporte muy útil. Se encuentra dentro de las ciudades, entre ciudades con un radio pequeño entre ellas e incluso cada vez más, gracias a la alta velocidad, entre ciudades con gran distancia entre ellas. Esta Tesis pretende ayudar en el diseño de una de las etapas más importantes de los Proyectos de instalación de un sistema ferroviario: el sistema eléctrico de tracción. La fase de diseño de un sistema eléctrico de tracción ferroviaria se enfrenta a muchas dudas que deben ser resueltas con precisión. Del éxito de esta fase dependerá la capacidad de afrontar las demandas de energía de la explotación ferroviaria. También se debe atender a los costes de instalación y de operación, tanto costes directos como indirectos. Con la Metodología que se presenta en esta Tesis se ofrecerá al diseñador la opción de manejar un sistema experto que como soluciones le plantee un conjunto de escenarios de sistemas eléctricos correctos, comprobados por resolución de modelos de ecuaciones. Correctos desde el punto de vista de validez de distintos parámetros eléctrico, como de costes presupuestarios e impacto de costes indirectos. Por tanto, el diseñador al haber hecho uso de esta Metodología, tendría en un espacio de tiempo relativamente corto, un conjunto de soluciones factibles con las que poder elegir cuál convendría más según sus intereses finales. Esta Tesis se ha desarrollado en una vía de investigación integrada dentro del Centro de Investigaciones Ferroviarias CITEF-UPM. Entre otros proyectos y vías de investigación, en CITEF se ha venido trabajando en estudios de validación y dimensionamiento de sistemas eléctricos ferroviarios con diversos y variados clientes y sistemas ferroviarios. A lo largo de los proyectos realizados, el interés siempre ha girado mayoritariamente sobre los siguientes parámetros del sistema eléctrico: - Calcular número y posición de subestaciones de tracción. Potencia de cada subestación. - Tipo de catenaria a lo largo del recorrido. Conductores que componen la catenaria. Características. - Calcular número y posición de autotransformadores para sistemas funcionando en alterna bitensión o 2x25kV. - Posición Zonas Neutras. - Validación según normativa de: o Caídas de tensión en la línea o Tensiones máximas en el retorno de la línea o Sobrecalentamiento de conductores o Sobrecalentamiento de los transformadores de las subestaciones de tracción La idea es que las soluciones aportadas por la Metodología sugieran escenarios donde de estos parámetros estén dentro de los límites que marca la normativa. Tener la posibilidad de tener un repositorio de posibles escenarios donde los parámetros y elementos eléctricos estén calculados como correctos, aporta un avance en tiempos y en pruebas, que mejoraría ostensiblemente el proceso habitual de diseño para los sistemas eléctricos ferroviarios. Los costes directos referidos a elementos como subestaciones de tracción, autotransformadores, zonas neutras, ocupan un gran volumen dentro del presupuesto de un sistema ferroviario. En esta Tesis se ha querido profundizar también en el efecto de los costes indirectos provocados en la instalación y operación de sistemas eléctricos. Aquellos derivados del impacto medioambiental, los costes que se generan al mantener los equipos eléctricos y la instalación de la catenaria, los costes que implican la conexión entre las subestaciones de tracción con la red general o de distribución y por último, los costes de instalación propios de cada elemento compondrían los costes indirectos que, según experiencia, se han pensado relevantes para ejercer un cierto control sobre ellos. La Metodología cubrirá la posibilidad de que los diseños eléctricos propuestos tengan en cuenta variaciones de coste inasumibles o directamente, proponer en igualdad de condiciones de parámetros eléctricos, los más baratos en función de los costes comentados. Analizando los costes directos e indirectos, se ha pensado dividir su impacto entre los que se computan en la instalación y los que suceden posteriormente, durante la operación de la línea ferroviaria. Estos costes normalmente suelen ser contrapuestos, cuánto mejor es uno peor suele ser el otro y viceversa, por lo que hace falta un sistema que trate ambos objetivos por separado. Para conseguir los objetivos comentados, se ha construido la Metodología sobre tres pilares básicos: - Simulador ferroviario Hamlet: Este simulador integra módulos para construir esquemas de vías ferroviarios completos; módulo de simulación mecánica y de la tracción de material rodante; módulo de señalización ferroviaria; módulo de sistema eléctrico. Software realizado en C++ y Matlab. - Análisis y estudio de cómo focalizar los distintos posibles escenarios eléctricos, para que puedan ser examinados rápidamente. Pico de demanda máxima de potencia por el tráfico ferroviario. - Algoritmos de optimización: A partir de un estudio de los posibles algoritmos adaptables a un sistema tan complejo como el que se plantea, se decidió que los algoritmos genéticos serían los elegidos. Se han escogido 3 algoritmos genéticos, permitiendo recabar información acerca del comportamiento y resultados de cada uno de ellos. Los elegidos por motivos de tiempos de respuesta, multiobjetividad, facilidad de adaptación y buena y amplia aplicación en proyectos de ingeniería fueron: NSGA-II, AMGA-II y ɛ-MOEA. - Diseño de funciones y modelo preparado para trabajar con los costes directos e indirectos y las restricciones básicas que los escenarios eléctricos no deberían violar. Estas restricciones vigilan el comportamiento eléctrico y la estabilidad presupuestaria. Las pruebas realizadas utilizando el sistema han tratado o bien de copiar situaciones que se puedan dar en la realidad o directamente sistemas y problemas reales. Esto ha proporcionado además de la posibilidad de validar la Metodología, también se ha posibilitado la comparación entre los algoritmos genéticos, comparar sistemas eléctricos escogidos con los reales y llegar a conclusiones muy satisfactorias. La Metodología sugiere una vía de trabajo muy interesante, tanto por los resultados ya obtenidos como por las oportunidades que puede llegar a crear con la evolución de la misma. Esta Tesis se ha desarrollado con esta idea, por lo que se espera pueda servir como otro factor para trabajar con la validación y diseño de sistemas eléctricos ferroviarios. ABSTRACT Transport capacity is one of the critical points to evaluate the progress than a specific social and economical area is able to reach. This is a sector of high significance for the actual society. Included inside the most common types of transport, one of the means of transport which is elevating its use nowadays is the railway. Such as for passenger transport of weight movements, the train is being consolidated like a very useful mean of transport. Railways are installed in many geography areas. Everyone know train in cities, or connecting cities inside a surrounding area or even more often, taking into account the high-speed, there are railways infrastructure between cities separated with a long distance. This Ph.D work aims to help in the process to design one of the most essential steps in Installation Projects belonging to a railway system: Power Supply System. Design step of the railway power supply, usually confronts to several doubts and uncertainties, which must be solved with high accuracy. Capacity to supply power to the railway traffic depends on the success of this step. On the other hand is very important to manage the direct and indirect costs derived from Installation and Operation. With the Methodology is presented in this Thesis, it will be offered to the designer the possibility to handle an expert system that finally will fill a set of possible solutions. These solutions must be ready to work properly in the railway system, and they were tested using complex equation models. This Thesis has been developed through a research way, integrated inside Citef (Railway Research Centre of Technical University of Madrid). Among other projects and research ways, in Citef has been working in several validation studies and dimensioning of railway power supplies. It is been working by a large range of clients and railways systems. Along the accomplished Projects, the main goal has been rounded mostly about the next list of parameters of the electrical system: - Calculating number and location of traction substations. Power of each substation. - Type of Overhead contact line or catenary through the railway line. The wires which set up the catenary. Main Characteristics. - Calculating number and position of autotransformers for systems working in alternating current bi-voltage of called 2x25 kV. - Location of Neutral Zones. - Validating upon regulation of: o Drop voltages along the line o Maximum return voltages in the line o Overheating/overcurrent of the wires of the catenary o Avoiding overheating in the transformers of the traction substations. Main objective is that the solutions given by the Methodology, could be suggest scenarios where all of these parameters from above, would be between the limits established in the regulation. Having the choice to achieve a repository of possible good scenarios, where the parameters and electrical elements will be assigned like ready to work, that gives a great advance in terms of times and avoiding several tests. All of this would improve evidently the regular railway electrical systems process design. Direct costs referred to elements like traction substations, autotransformers, neutral zones, usually take up a great volume inside the general budget in railway systems. In this Thesis has been thought to bear in mind another kind of costs related to railway systems, also called indirect costs. These could be enveloped by those enmarked during installation and operation of electrical systems. Those derived from environmental impact; costs generated during the maintenance of the electrical elements and catenary; costs involved in the connection between traction substations and general electric grid; finally costs linked with the own installation of the whole electrical elements needed for the correct performance of the railway system. These are integrated inside the set has been collected taking into account own experience and research works. They are relevant to be controlled for our Methodology, just in case for the designers of this type of systems. The Methodology will cover the possibility that the final proposed power supply systems will be hold non-acceptable variations of costs, comparing with initial expected budgets, or directly assuming a threshold of budget for electrical elements in actual scenario, and achieving the cheapest in terms of commented costs from above. Analyzing direct and indirect costs, has been thought to divide their impact between two main categories. First one will be inside the Installation and the other category will comply with the costs often happens during Railway Operation time. These costs normally are opposed, that means when one is better the other turn into worse, in costs meaning. For this reason is necessary treating both objectives separately, in order to evaluate correctly the impact of each one into the final system. The objectives detailed before build the Methodology under three basic pillars: - Railway simulator Hamlet: This software has modules to configure many railway type of lines; mechanical and traction module to simulate the movement of rolling stock; signaling module; power supply module. This software has been developed using C++ and Matlab R13a - Previously has been mandatory to study how would be possible to work properly with a great number of feasible electrical systems. The target comprised the quick examination of these set of scenarios in terms of time. This point is talking about Maximum power demand peaks by railway operation plans. - Optimization algorithms. A railway infrastructure is a very complex system. At the beginning it was necessary to search about techniques and optimization algorithms, which could be adaptable to this complex system. Finally three genetic multiobjective algorithms were the chosen. Final decision was taken attending to reasons such as time complexity, able to multiobjective, easy to integrate in our problem and with a large application in engineering tasks. They are: NSGA-II, AMGA-II and ɛ-MOEA. - Designing objectives functions and equation model ready to work with the direct and indirect costs. The basic restrictions are not able to avoid, like budgetary or electrical, connected hardly with the recommended performance of elements, catenary and safety in a electrical railway systems. The battery of tests launched to the Methodology has been designed to be as real as possible. In fact, due to our work in Citef and with real Projects, has been integrated and configured three real railway lines, in order to evaluate correctly the final results collected by the Methodology. Another topic of our tests has been the comparison between the performances of the three algorithms chosen. Final step has been the comparison again with different possible good solutions, it means power supply system designs, provided by the Methodology, testing the validity of them. Once this work has been finished, the conclusions have been very satisfactory. Therefore this Thesis suggest a very interesting way of research and work, in terms of the results obtained and for the future opportunities can be created with the evolution of this. This Thesis has been developed with this idea in mind, so is expected this work could adhere another factor to work in the difficult task of validation and design of railway power supply systems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las desviaciones de tiempo y coste constituyen un fenómeno muy frecuente en la industria de la construcción. Existe un gran número de proyectos que no se terminan en el plazo y el tiempo estipulados, y esto parece que se ha convertido más en la norma que en la excepción. Los proyectos de construcción son heterogéneos por naturaleza y pueden llegar a ser muy complejos, involucrando numerosos procesos y expuestos a infinidad de variables y factores que pueden afectar el cumplimiento de los objetivos de tiempo y coste. Las desviaciones de tiempo y coste no favorecen ni al promotor ni al resto de equipos participantes del proyecto, dando lugar además la mayoría de las veces a situaciones de conflictos y relaciones adversas entre participantes del proyecto. Es por todo ello que surge la necesidad de atender a una estrategia de gestión de riesgos eficaz, como herramienta esencial de la gestión de proyectos para contribuir al éxito de los mismos. Es preciso considerar también que los proyectos de construcción pueden presentar distintas características específicas según el tipo de proyecto de que se traten. El presente trabajo de investigación estudia concretamente los proyectos de edificios de uso hotelero, los cuales pueden presentar estructuras organizativas muy diversas, incluyendo numerosos agentes participantes y procesos que a su vez se desarrollan en un entorno que ya es muy dinámico por su propia naturaleza. En el sector hotelero el cumplimiento de los objetivos de tiempo y coste del proyecto son especialmente importantes ya que cualquier retraso en la fecha de apertura estimada del hotel se traducirá en pérdidas importantes de negocio y cuota de mercado y podrá llevar asociadas también repercusiones importantes en otros aspectos relacionados con la operativa hotelera. Si se conocen las causas que originan tales desviaciones de tiempo y coste, se podrán establecer las correspondientes medidas de actuación para anticiparnos a ellas y que no se produzcan, siendo ésta la base del propósito de esta tesis. Así, la identificación de riesgos supone el primer paso para una gestión de riesgos eficaz, fundamental para contribuir al éxito de un proyecto. El contexto de la investigación delimita como lugar geográfico de estudio España, donde el sector turístico constituye un motor importante de la economía y en el que la eficiencia y competitividad debe estar reflejada también en el proceso del proyecto edificatorio, minimizándose los retrasos y sobrecostes. El presente estudio investiga por tanto los factores de riesgo más críticos que dan lugar a desviaciones de tiempo y coste en proyectos de edificios de uso hotelero en España. A partir del análisis de la literatura existente se genera una propuesta de identificación de factores de riesgo, que se analiza mediante un análisis cualitativo basado en la opinión de expertos y estudio de casos específicos. De los resultados de este análisis se determinan los niveles críticos para cada factor de riesgo, se comparan además las percepciones de niveles de riesgo según distintos tipos de grupos profesionales, y se establece un procedimiento en cuanto a prioridad de acción de respuesta. Así, se desarrolla una propuesta final de identificación y matriz de factores de riesgo con el objetivo de que pueda servir de base a propietarios, empresas gestoras y otros participantes de proyectos hoteleros para diseñar un plan de gestión de riesgos eficaz, contribuyendo de este modo al éxito del proyecto en cuanto a cumplimiento de objetivos de tiempo y coste programados. ABSTRACT Cost and schedule overruns constitute a very frequent phenomenon in the construction industry. A large number of construction projects do not finish on the estimated time and cost, and this scenario seems to be becoming the norm rather than the exception. Construction projects are heterogeneous by nature and they can become very complex as they involve a large number of processes which are subject to many variables and factors that may give rise to time and cost overruns. Time and cost overruns cause dissatisfaction not only to owners but all stakeholders involved in the project, leading most of the times to undesirable situations of conflicts and adversarial relationships between project participants. Hence, it becomes necessary to adopt an effective risk management strategy as an essential part of project management in order to achieve project success. Construction projects may have different characteristics depending on the type of project. This research specifically focuses on hotel construction projects. Hotel projects usually involve complex organizational structures, including many project participants and processes which develop in an environment that is already dynamic by nature. In this type of projects, the achievement of time and cost objectives is particularly important, as any delay of the hotel opening date will result in significant loss of business and market share and may also involve key important implications related to hotel operations. If the risk factors that lead to time and cost overrun are known in advance, preventive actions could be established in order to avoid them, so that time and cost overruns are minimized. This constitutes the aim of this research, being risk identification the first step of any effective risk management strategy for project success. The context of this research is focused on a particular geographical area, being this Spain. Tourism in Spain is a major contributor to the Spanish economy, and efficiency and competiveness should also be reflected in the building processes of the hotel industry, where delays and cost overruns should be kept to the minimum. The aim of this study is to explore the most critical risk factors leading to time and cost overruns in hotel construction projects in Spain. From the analysis of the literature review, a proposal of a risk identification framework is developed, which will be further analyzed by a qualitative assessment based on expert opinions and the study of specific case studies. From the results of this assessment, the levels of risk criticality are determined for the identified factors, a comparison of the perceptions of risk levels among different groups of respondents is also carried out, and a procedure for prioritization of factors in terms of needs of response is established. A final proposal of a risk register matrix framework is then developed in order to assist hotel owners, project management companies or other hotel project stakeholders, and provide them with a base to design their own specific risk management plans, contributing in this way to project success with regards to the achievement of cost and time objectives.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El proyecto trata del desarrollo de un software para realizar el control de la medida de la distribución de intensidad luminosa en luminarias LED. En el trascurso del proyecto se expondrán fundamentos teóricos sobre fotometría básica, de los cuales se extraen las condiciones básicas para realizar dicha medida. Además se realiza una breve descripción del hardware utilizado en el desarrollo de la máquina, el cual se basa en una placa de desarrollo Arduino Mega 2560, que, gracias al paquete de Labview “LIFA” (Labview Interface For Arduino”), será posible utilizarla como tarjeta de adquisición de datos mediante la cual poder manejar tanto sensores como actuadores, para las tareas de control. El instrumento de medida utilizado en este proyecto es el BTS256 de la casa GigaHerzt-Optik, del cual se dispone de un kit de desarrollo tanto en lenguaje C++ como en Labview, haciendo posible programar aplicaciones basadas en este software para realizar cualquier tipo de adaptación a las necesidades del proyecto. El software está desarrollado en la plataforma Labview 2013, esto es gracias a que se dispone del kit de desarrollo del instrumento de medida, y del paquete LIFA. El objetivo global del proyecto es realizar la caracterización de luminarias LED, de forma que se obtengan medidas suficientes de la distribución de intensidad luminosa. Los datos se recogerán en un archivo fotométrico específico, siguiendo la normativa IESNA 2002 sobre formato de archivos fotométricos, que posteriormente será utilizado en la simulación y estudio de instalaciones reales de la luminaria. El sistema propuesto en este proyecto, es un sistema basado en fotometría tipo B, utilizando coordenadas VH, desarrollando un algoritmo de medida que la luminaria describa un ángulo de 180º en ambos ejes, con una resolución de 5º para el eje Vertical y 22.5º para el eje Horizontal, almacenando los datos en un array que será escrito en el formato exigido por la normativa. Una vez obtenidos los datos con el instrumento desarrollado, el fichero generado por la medida, es simulado con el software DIALux, obteniendo unas medidas de iluminación en la simulación que serán comparadas con las medidas reales, intentando reproducir en la simulación las condiciones reales de medida. ABSTRACT. The project involves the development of software for controlling the measurement of light intensity distribution in LEDs. In the course of the project theoretical foundations on basic photometry, of which the basic conditions for such action are extracted will be presented. Besides a brief description of the hardware used in the development of the machine, which is based on a Mega Arduino plate 2560 is made, that through the package Labview "LIFA" (Interface For Arduino Labview "), it is possible to use as data acquisition card by which to handle both sensors and actuators for control tasks. The instrument used in this project is the BTS256 of GigaHerzt-Optik house, which is available a development kit in both C ++ language as LabView, making it possible to program based on this software applications for any kind of adaptation to project needs. The software is developed in Labview 2013 platform, this is thanks to the availability of the SDK of the measuring instrument and the LIFA package. The overall objective of the project is the characterization of LED lights, so that sufficient measures the light intensity distribution are obtained. Data will be collected on a specific photometric file, following the rules IESNA 2002 on photometric format files, which will then be used in the simulation and study of actual installations of the luminaire. The proposed in this project is a system based on photometry type B system using VH coordinates, developing an algorithm as the fixture describe an angle of 180 ° in both axes, with a resolution of 5 ° to the vertical axis and 22.5º for the Horizontal axis, storing data in an array to be written in the format required by the regulations. After obtaining the data with the instrument developed, the file generated by the measure, is simulated with DIALux software, obtaining measures of lighting in the simulation will be compared with the actual measurements, trying to play in the simulation the actual measurement conditions .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este Proyecto Fin de Grado se ha realizado un estudio de cómo generar, a partir de modelos de flujo de datos en RVC-CAL (Reconfigurable Video Coding – CAL Actor Language), modelos VHDL (Versatile Hardware Description Language) mediante Vivado HLS (Vivado High Level Synthesis), incluida en las herramientas disponibles en Vivado de Xilinx. Una vez conseguido el modelo VHDL resultante, la intención es que mediante las herramientas de Xilinx se programe en una FPGA (Field Programmable Gate Array) o el dispositivo Zynq también desarrollado por Xilinx. RVC-CAL es un lenguaje de flujo de datos que describe la funcionalidad de bloques funcionales, denominados actores. Las funcionalidades que desarrolla un actor se definen como acciones, las cuales pueden ser diferentes en un mismo actor. Los actores pueden comunicarse entre sí y formar una red de actores o network. Con Vivado HLS podemos obtener un diseño VHDL a partir de un modelo en lenguaje C. Por lo que la generación de modelos en VHDL a partir de otros en RVC-CAL, requiere una fase previa en la que los modelos en RVC-CAL serán compilados para conseguir su equivalente en lenguaje C. El compilador ORCC (Open RVC-CAL Compiler) es la herramienta que nos permite lograr diseños en lenguaje C partiendo de modelos en RVC-CAL. ORCC no crea directamente el código ejecutable, sino que genera un código fuente disponible para ser compilado por otra herramienta, en el caso de este proyecto, el compilador GCC (Gnu C Compiler) de Linux. En resumen en este proyecto nos encontramos con tres puntos de estudio bien diferenciados, los cuales son: 1. Partimos de modelos de flujo de datos en RVC-CAL, los cuales son compilados por ORCC para alcanzar su traducción en lenguaje C. 2. Una vez conseguidos los diseños equivalentes en lenguaje C, son sintetizados en Vivado HLS para conseguir los modelos en VHDL. 3. Los modelos VHDL resultantes serian manipulados por las herramientas de Xilinx para producir el bitstream que sea programado en una FPGA o en el dispositivo Zynq. En el estudio del segundo punto, nos encontramos con una serie de elementos conflictivos que afectan a la síntesis en Vivado HLS de los diseños en lenguaje C generados por ORCC. Estos elementos están relacionados con la manera que se encuentra estructurada la especificación en C generada por ORCC y que Vivado HLS no puede soportar en determinados momentos de la síntesis. De esta manera se ha propuesto una transformación “manual” de los diseños generados por ORCC que afecto lo menos posible a los modelos originales para poder realizar la síntesis con Vivado HLS y crear el fichero VHDL correcto. De esta forma este documento se estructura siguiendo el modelo de un trabajo de investigación. En primer lugar, se exponen las motivaciones y objetivos que apoyan y se esperan lograr en este trabajo. Seguidamente, se pone de manifiesto un análisis del estado del arte de los elementos necesarios para el desarrollo del mismo, proporcionando los conceptos básicos para la correcta comprensión y estudio del documento. Se realiza una descripción de los lenguajes RVC-CAL y VHDL, además de una introducción de las herramientas ORCC y Vivado, analizando las bondades y características principales de ambas. Una vez conocido el comportamiento de ambas herramientas, se describen las soluciones desarrolladas en nuestro estudio de la síntesis de modelos en RVC-CAL, poniéndose de manifiesto los puntos conflictivos anteriormente señalados que Vivado HLS no puede soportar en la síntesis de los diseños en lenguaje C generados por el compilador ORCC. A continuación se presentan las soluciones propuestas a estos errores acontecidos durante la síntesis, con las cuales se pretende alcanzar una especificación en C más óptima para una correcta síntesis en Vivado HLS y alcanzar de esta forma los modelos VHDL adecuados. Por último, como resultado final de este trabajo se extraen un conjunto de conclusiones sobre todos los análisis y desarrollos acontecidos en el mismo. Al mismo tiempo se proponen una serie de líneas futuras de trabajo con las que se podría continuar el estudio y completar la investigación desarrollada en este documento. ABSTRACT. In this Project it has made a study of how to generate, from data flow models in RVC-CAL (Reconfigurable Video Coding - Actor CAL Language), VHDL models (Versatile Hardware Description Language) by Vivado HLS (Vivado High Level Synthesis), included in the tools available in Vivado of Xilinx. Once achieved the resulting VHDL model, the intention is that by the Xilinx tools programmed in FPGA or Zynq device also developed by Xilinx. RVC-CAL is a dataflow language that describes the functionality of functional blocks, called actors. The functionalities developed by an actor are defined as actions, which may be different in the same actor. Actors can communicate with each other and form a network of actors. With Vivado HLS we can get a VHDL design from a model in C. So the generation of models in VHDL from others in RVC-CAL requires a preliminary phase in which the models RVC-CAL will be compiled to get its equivalent in C. The compiler ORCC (Open RVC-CAL Compiler) is the tool that allows us to achieve designs in C language models based on RVC-CAL. ORCC not directly create the executable code but generates an available source code to be compiled by another tool, in the case of this project, the GCC compiler (GNU C Compiler) of Linux. In short, in this project we find three well-defined points of study, which are: 1. We start from data flow models in RVC-CAL, which are compiled by ORCC to achieve its translation in C. 2. Once you realize the equivalent designs in C, they are synthesized in Vivado HLS for VHDL models. 3. The resulting models VHDL would be manipulated by Xilinx tools to produce the bitstream that is programmed into an FPGA or Zynq device. In the study of the second point, we find a number of conflicting elements that affect the synthesis Vivado HLS designs in C generated by ORCC. These elements are related to the way it is structured specification in C generated ORCC and Vivado HLS cannot hold at certain times of the synthesis. Thus it has proposed a "manual" transformation of designs generated by ORCC that affected as little as possible to the original in order to perform the synthesis Vivado HLS and create the correct file VHDL models. Thus this document is structured along the lines of a research. First, the motivations and objectives that support and hope to reach in this work are presented. Then it shows an analysis the state of the art of the elements necessary for its development, providing the basics for a correct understanding and study of the document. A description of the RVC-CAL and VHDL languages is made, in addition an introduction of the ORCC and Vivado tools, analyzing the advantages and main features of both. Once you know the behavior of both tools, the solutions developed in our study of the synthesis of RVC-CAL models, introducing the conflicting points mentioned above are described that Vivado HLS cannot stand in the synthesis of design in C language generated by ORCC compiler. Below the proposed solutions to these errors occurred during synthesis, with which it is intended to achieve optimum C specification for proper synthesis Vivado HLS and thus create the appropriate VHDL models are presented. Finally, as the end result of this work a set of conclusions on all analyzes and developments occurred in the same are removed. At the same time a series of future lines of work which could continue to study and complete the research developed in this document are proposed.