30 resultados para Música-Instrucción y estudio


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se pretende estudiar los quioscos de música en un espacio, (Comunidad de Madrid), y en un tiempo, (desde 1897 año del más antiguo localizado en la Comunidad de Madrid, hasta 2005 por cambio de ciclo político y crisis económica, constando que la actividad constructiva, modificadora y destructiva de los quioscos de música sigue), difundiendo el estudio de los localizados, para que se valoren como objetos arquitectónicos, (de poco tamaño, pero situados y vistos en los lugares más representativos de las localidades. En la metodología de investigación seguida, se usan la inferencia inductiva y deductiva. Se establecen 3 fases en el proceso de investigación por el método inductivo-deductivo: Primera fase. En esta fase se establece la idea del tema de investigación, con el planteamiento del problema, realizándose la pregunta a la que se pretende responder. En este caso la pregunta es: ¿que tipología e invariantes definen a los quioscos de música, como objetos arquitectónicos dentro de los espacios públicos? Se definen luego los objetivos, con la identificación de un objetivo principal como son su tipología e invariantes, y en su caso otros objetivos específicos, como son sus usos y la creación de un modelo. Para ello se utiliza un marco teórico, relativo a los conocimientos que hay sobre la materia, y desde el que se produce la aproximación al problema, y se establece la metodología de trabajo. . Segunda fase, desarrollada en dos etapas: Primera etapa: Se realiza la elección del tipo de trabajo a realizar, es decir, como vamos a conocer la respuesta a la pregunta con un planteamiento cuantitativo, donde se trabaja con objetivos cerrados, y donde se sabe lo que se quiere investigar. En este caso son los objetivos específicos los que completan y marcan el tipo de trabajo. Lo primero que se realiza es un análisis histórico general de los objetos arquitectónicos que sirven de base a las futuras y actuales creaciones de quioscos de música. A continuación se realiza una búsqueda y trabajo de campo, en bibliotecas, páginas web, etc. con obtención de datos “in situ” sobre los quioscos de música, y una relación y descripción de los objetos a estudiar, limitados a la Comunidad de Madrid, desde finales del siglo XIX a principios del XXI, por su suficiente cantidad y representatividad, en relación al conjunto de los quioscos de música del conjunto de las comunidades de España. Segunda etapa: Se realiza el análisis e interpretación de los datos obtenidos, dando respuesta a la pregunta que se había realizado. En ella se vincula el marco teórico con los objetivos, se responde al objetivo principal como son la tipología e invariantes en relación a su composición arquitectónica, a sus elementos formales, a sus sistemas constructivos, a sus materiales, y a alguno de los objetivos específicos, como los usos de los quioscos de música, el diseño de un modelo y la creación de una base de datos de quioscos de música. Tercera fase: Se establecen las conclusiones de todo el trabajo de investigación realizado, y se responde a la posible definición de un modelo según lo planteado en la investigación. Se realiza la difusión/publicación de los conocimientos adquiridos, dando cuenta con rigor de como se ha desarrollado la investigación, ya que es la sociedad la principal receptora de los conocimientos adquiridos en la investigación, y dando la mayor amplitud de información posible, con los anexos y la bibliografía utilizada. En el planteamiento de este trabajo de investigación, hay que partir de la consideración de que los quioscos de música forman parte de los objetos arquitectónicos reconocidos popularmente, como propios de los individuos y de los colectivos que forman las sociedades, ya que forman o han formado parte de las vidas de generaciones de usuarios de los espacios públicos, con una imagen reconocible y que es parte de lo que identifica a cada localidad en la que existe. La situación actual de falta de datos, conocimiento e información sobre los quioscos de música, ha creado la necesidad de realizar un trabajo de investigación, con el objetivo de aportar lo que ahora falta, y crear las bases de futuros trabajos, profundizando en los conocimientos sobre esta materia y/o generando conocimiento en lo relacionado con ella. Uno de los condicionantes es que a pesar del gran número de ellos existente, no hay estudios ni bibliografía adecuada para realizar trabajos relacionados con su construcción, época, estilos, materiales, diseños, tipología etc. excepto en algunas monografías sobre los más representativos de comunidades, ciudades o pueblos concretos, pero que no representan el conjunto de ideales, motivos, épocas diferentes en que se crearon, y con que criterios estilísticos, sociales, de uso etc. se programaron por las distintas administraciones responsables de su construcción. Esta falta de información se suple normalmente con datos que aportan las personas que tienen alguna relación con los quioscos, como los conservadores, jardineros, vecinos, personas mayores, etc., y en algunos casos a través de búsqueda de información en páginas Web, pero con poco rigor y de poca fiabilidad. Se impone por tanto desarrollar una investigación que aporte información sobre la arquitectura de estos objetos, de bibliografía inexistente o insuficiente, consiguiendo que se incorporen en la tipología arquitectónica, adquiriendo la importancia y reconocimiento que se merecen, no solo arquitectónicamente, sino incluso a nivel social, porque en casi todos los casos se añade un componente de hito, de elemento reconocible y nostálgico, con una gran importancia simbólica en las sociedades a lo largo de la historia, dentro de los espacios donde cada uno se ha desarrollado. Para ello se desarrollan a continuación los objetivos tanto generales como específicos, el marco teórico con los conceptos, origen, evolución, estado del arte o estado de la cuestión en el momento actual de los quioscos de música, y la metodología a seguir, con una primera etapa de uso del método inductivo, donde se relacionan y describen los quioscos de música localizados en la Comunidad de Madrid, y una segunda etapa, donde se realiza el análisis y estudio de tipología, invariantes, usos y una propuesta de diseño de un modelo de quiosco de música atendiendo a los resultados de los trabajos realizados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo de Tesis ha abordado el objetivo de dar robustez y mejorar la Detección de Actividad de Voz en entornos acústicos adversos con el fin de favorecer el comportamiento de muchas aplicaciones vocales, por ejemplo aplicaciones de telefonía basadas en reconocimiento automático de voz, aplicaciones en sistemas de transcripción automática, aplicaciones en sistemas multicanal, etc. En especial, aunque se han tenido en cuenta todos los tipos de ruido, se muestra especial interés en el estudio de las voces de fondo, principal fuente de error de la mayoría de los Detectores de Actividad en la actualidad. Las tareas llevadas a cabo poseen como punto de partida un Detector de Actividad basado en Modelos Ocultos de Markov, cuyo vector de características contiene dos componentes: la energía normalizada y la variación de la energía. Las aportaciones fundamentales de esta Tesis son las siguientes: 1) ampliación del vector de características de partida dotándole así de información espectral, 2) ajuste de los Modelos Ocultos de Markov al entorno y estudio de diferentes topologías y, finalmente, 3) estudio e inclusión de nuevas características, distintas de las del punto 1, para filtrar los pulsos de pronunciaciones que proceden de las voces de fondo. Los resultados de detección, teniendo en cuenta los tres puntos anteriores, muestran con creces los avances realizados y son significativamente mejores que los resultados obtenidos, bajo las mismas condiciones, con otros detectores de actividad de referencia. This work has been focused on improving the robustness at Voice Activity Detection in adverse acoustic environments in order to enhance the behavior of many vocal applications, for example telephony applications based on automatic speech recognition, automatic transcription applications, multichannel systems applications, and so on. In particular, though all types of noise have taken into account, this research has special interest in the study of pronunciations coming from far-field speakers, the main error source of most activity detectors today. The tasks carried out have, as starting point, a Hidden Markov Models Voice Activity Detector which a feature vector containing two components: normalized energy and delta energy. The key points of this Thesis are the following: 1) feature vector extension providing spectral information, 2) Hidden Markov Models adjustment to environment and study of different Hidden Markov Model topologies and, finally, 3) study and inclusion of new features, different from point 1, to reject the pronunciations coming from far-field speakers. Detection results, taking into account the above three points, show the advantages of using this method and are significantly better than the results obtained under the same conditions by other well-known voice activity detectors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los últimos años es notable la proliferación de trabajos y estudios que tratan sobre las características del hormigón autocompactante. De ellos, la durabilidad es el aspecto menos tratado, siendo especialmente escasos los que se centran en un problema particular de esta durabilidad, como es la penetración de cloruros, un aspecto básico para todos los elementos estructurales sometidos a un ambiente marino. Esta será la línea básica del presente trabajo, que vendrá acompañada de otra serie de ensayo que permitan ratificar los resultados obtenidos. Debido a lo anteriormente expuesto, el objetivo general de esta investigación es estudiar la influencia de la adición de nano-sílice en aspectos tanto microestructurales como durables en hormigones autocompactantes. Dado que el objetivo general planteado es muy ambicioso y requiere tiempo y multitud de ensayos combinando numerosas variables, este trabajo de investigación se centra en los siguientes objetivos particulares dentro de la línea general de la investigación: Evaluar los cambios que se producen en las propiedades en estado fresco de los distintos hormigones ensayados; Evaluar los cambios que se producen en las propiedades mecánicas de los hormigones estudiados; Determinar los cambios de la matriz porosa de los distintos hormigones ensayados y determinar los cambios en los componentes hidratados de la matiz de cemento. Para cumplir con este objetivo, se ha procedido a comparar el comportamiento de cuatro tipos de hormigón con el mismo cemento: Un hormigón convencional sin adición, un hormigón autocompactante sin adición, un hormigón autocompactante con 2,5 % de adición de nano sílice y un hormigón autocompactante con 5 % de adición de nano sílice. Las etapas seguidas en este trabajo son las siguientes: Revisión bibliográfica relativa a los hormigones autocompactantes, y a la adición de nano-sílice.; Estudio y elección de las dosificaciones para los hormigones objeto de estudio: hormigón convencional, un hormigón autocompactante sin adiciones y hormigones autocompactantes con adición de nano-sílice; Evaluación de los hormigones, convencional y autocompactantes, en estado fresco en base a la normativa vigente y a las exigencias de la Instrucción del Hormigón Estructural (EHE-08); Evaluación de las propiedades mecánicas de los hormigones en estado endurecido mediante ensayo de resistencia a compresión; Caracterización microestructural de los hormigones mediante ensayos de porosimetría por intrusión de mercurio (PIM) y termoanálisis (TG-ATD); Evaluación del comportamiento de los hormigones frente a ensayos específicos enfocados a su durabilidad, como son los de resistividad eléctrica y de penetración de cloruros y estudio comparativo de los resultados obtenidos y establecimiento de relaciones entre la dosificación y el comportamiento de cada hormigón, de cara a poder fijar recomendaciones de uso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dicho proyecto constará: 1º) De una memoria general descriptiva de la cuenca del Río Guadalmedina expresiva de los trabajos de corrección y de repoblación ejecutados en la misma0 Dicha memoria tendrá un carácter descriptiva) conciso y justificativo. Se recogerán en la misma los conocimientos indispensables de geología climatología, topografía e hidrografía, como base indispensable para el proyectado estudio de corrección y repoblación de la rambla. 2º) Justificación de la corrección y repoblación que se propone, con expresión de los daños originados y posibles en el porvenir y evaluación aproximada de los mismos de orden económico y social. 3º) El plan general de corrección y de repoblación constará: a) Estudio del estado actual de torrencialidad. Crecidas, pendientes de compensación y cálculo del perfil de compensación. Alturas acumuladas, elección de los emplazamientos de los diques y demás obras de corrección que se proponen y su justificación. Cálculo de los diques medios si procediere y su representación gráfica. Conveniencia o no del empleo de drenes en caso de producirse deslizamientos. b) Restauración forestal. Vegetación espontánea y estudio de su proceso evolutivo, deduciendo del mismo las más convenientes indicaciones biológicas para la elección de especies. Elección del método más apropiado de repoblación. Conveniencia económico-selvícola de crear masas puras o mezcladas. Número de plantas por unidad a real y precios unitarios de su repoblación. Cuidados culturales que deben aplicarse a los repoblados. Propuesta de creación de un vivero a los fines de la repoblación proyectada. Su localización, superficie, cerramiento, labores que precisa, abonos, siembras y riegos. Precios unitarios de creación del vivero. Presupuesto. 4°) Presupuestos de corrección y de repoblación. Plano general y del perfil longitudina a escala de 1: 100 y de los transversales de 1: 200 o más apropiadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Tesis Doctoral que a continuación se presenta se ha desarrollado en el marco de trabajo de los componentes fotónicos pasivos conocidos como redes de difracción de Bragg en fibra. En primer lugar, se ha hecho una breve revisión histórica de la evolución de los sistemas de comunicaciones ópticas por fibra, para situar el nacimiento de estas redes de difracción y poder explicar porqué se han convertido en un componente clave para la evolución de las futuras redes ópticas. En la primera parte de la Tesis, que se compone de los Capítulos 3, 4 y 5, se desarrolla el modelo general que se utilizará para la caracterización y estudio de las redes de difracción, y se aplica al proceso de crecimiento de estas redes en el núcleo de la fibra y a la caracterización completa de los diferentes tipos de redes de difracción. El modelo desarrollado constituye la base de los resultados que han sido obtenidos, y está basado en la discretización del componente por debajo del periodo de red, en teoría de matrices de transferencia y en propagación de ondas electromagnéticas a través de medios dieléctricos. Este modelo ha permitido explicar los distintos fenómenos que se observan experimentalmente en el proceso de fotoimprimir la red de difracción en el núcleo de la fibra, así como caracterizar completamente al dispositivo mediante el cálculo de los campos internos, en el dominio de la frecuencia y en el dominio del tiempo, que viajan a su través en los sentidos codireccional y contradireccional. La segunda parte de la Tesis está orientada a la aplicación de herramientas de teoría de señal al análisis y síntesis de redes de difracción. Primeramente, en el Capítulo 6 se desarrolla un algoritmo, basado en las transformadas de Hilbert y Wienner-Lee, para recuperar la característica de fase del coeficiente de reflexión en campo a partir de su característica en amplitud. Los resultados demuestran que esta reconstrucción es posible cuando el coeficiente de reflexión en campo es una función de fase mínima. El Capítulo 7 se orienta más a la síntesis de redes de difracción desde una nueva perspectiva, haciendo uso de la ya conocida aproximación de Fourier e introduciendo el análisis Tiempo - Frecuencia para la identificación de estructuras de red de difracción y reconstrucción del periodo de red. La tercera y última parte de la Tesis (Capítulo 8) se centra en la propuesta de nuevos dispositivos fotónicos basados en redes de difracción, para su aplicación en sistemas de comunicaciones ópticas. En particular, se ha trabajado en el campo de los sistemas de comunicaciones con multiplexación por longitud de onda, para los cuales se han propuesto un selector de canal sintonizable que trabaja en transmisión, y un nuevo diseño de red de difracción en fibra cuya característica de filtrado espectral se aproxima al filtro ideal. Para finalizar, en el Capítulo 9 se resumen las conclusiones que se han obtenido y se describen las líneas futuras de trabajo que quedan abiertas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los últimos años hemos sido testigos de la creciente demanda de software para resolver problemas cada vez más complejos y de mayor valor agregado. Bajo estas circunstancias, nos podemos hacer la siguiente pregunta: ¿Está preparada la industria de software para entregar el software que se necesita en los próximos años, de acuerdo con las demandas del cliente? Hoy en día, muchos expertos creen que el éxito de esta industria dependerá de su capacidad para gestionar los proyectos, las personas y los recursos. En este sentido, la gestión de proyectos es un factor clave para el éxito de los proyectos software en todo el mundo. Además, considerando que las Pequeñas y Medianas Empresas de software (PYMEs) representan el 99,87% de las empresas españolas, es vital para este tipo de empresas la implementación de los procesos involucrados con la gestión de proyectos. Es cierto que existen muchos modelos que mejoran la eficacia de la gestión de proyectos, pero la mayoría de ellos se centra únicamente en dos procesos: la planificación del proyecto y la monitorización y control del proyecto, ninguno de los cuales a menudo es asequible para las PYMEs. Estos modelos se basan en el consenso de un grupo de trabajo designado para establecer cómo debe ser gestionado el proceso software. Los modelos son bastante útiles ya que proporcionan lineamientos generales sobre dónde empezar a mejorar la gestión de los proyectos, y en qué orden, a personas que no saben cómo hacerlo. Sin embargo, como se ha dicho anteriormente, la mayoría de estos modelos solamente funcionan en escenarios dentro de las grandes empresas. Por lo tanto, es necesario adaptar los modelos y herramientas para el contexto de PYMEs. Esta tesis doctoral presenta una solución complementaria basada en la aplicación de un metamodelo. Este metamodelo es creado para mejorar la calidad de los procesos de la gestión de proyectos a través de la incorporación de prácticas eficaces identificadas a través del análisis y estudio de los modelos y normas existentes relacionadas con la gestión de proyectos. viii ProMEP – Metamodelo para la gestión de proyectos Por lo tanto, el metamodelo PROMEP (Gestión de Proyectos basada en Prácticas Efectivas) permitirá establecer un proceso estándar de gestión de proyectos que puede adaptarse a los proyectos de cada empresa a través de dos pasos: En primer lugar, para obtener una fotografía instantánea (o base) de los procesos de gestión de proyectos de las PYMEs se creó un cuestionario de dos fases para identificar tanto las prácticas realizadas y como las no realizadas. El cuestionario propuesto se basa en el Modelo de Madurez y Capacidad Integrado para el Desarrollo v1.2 (CMMI-DEV v1.2). Como resultado adicional, se espera que la aplicación de este cuestionario ayude a las PYMEs a identificar aquellas prácticas que se llevan a cabo, pero no son documentadas, aquellas que necesitan más atención, y aquellas que no se realizan debido a la mala gestión o al desconocimiento. En segundo lugar, para apoyar fácilmente y eficazmente las tareas de gestión de proyectos software del metamodelo PROMEP, se diseñó una biblioteca de activos de proceso (PAL) para apoyar la definición de los procesos de gestión de proyectos y realizar una gestión cuantitativa de cada proyecto de las PYMEs. Ambos pasos se han implementado como una herramienta computacional que apoya nuestro enfoque de metamodelo. En concreto, la presente investigación propone la construcción del metamodelo PROMEP para aquellas PYMEs que desarrollan productos software de tal forma que les permita planificar, monitorizar y controlar sus proyectos software, identificar los riesgos y tomar las medidas correctivas necesarias, establecer y mantener un conjunto de activos de proceso, definir un mecanismo cuantitativo para predecir el rendimiento de los procesos, y obtener información de mejora. Por lo tanto, nuestro estudio sugiere un metamodelo alternativo para lograr mayores niveles de rendimiento en los entornos de PYMEs. Así, el objetivo principal de esta tesis es ayudar a reducir los excesos de trabajo y el tiempo de entrega, y aumentar así la calidad del software producido en este tipo de organizaciones. Abstract In recent years we have been witnessing the increasing demand for software to solve more and more complex tasks and greater added value. Under these circumstances, we can ourselves the following question: Is the software industry prepared to deliver the software that is needed in the coming years, according to client demands? Nowadays, many experts believe that the industry’ success will depend on its capacity to manage the projects, people and resources. In this sense, project management is a key factor for software project success around the world. Moreover, taking into account that small and medium-sized software enterprises (SMSe) are the 99.87% of the Spanish enterprises, it is vital for this type of enterprises to implement the processes involved in project management. It is true that there are many models that improve the project management effectiveness, but most of them are focused only on two processes: project planning and project monitoring and control, neither of which is affordable for SMSe. Such models are based on the consensus of a designated working group on how software process should be managed. They are very useful in that they provide general guidelines on where to start improving the project management, and in which order, to people who do not know how to do it. However, as we said, the majority of these models have only worked in scenarios within large companies. So, it is necessary to adapt these models and tools to the context of SMSe. A complementary solution based on the implementation of a metamodel is presented in this thesis. This metamodel is created to improve the quality of project management processes through the incorporation of effective practices identified through the analysis and study of relevant models and standards related to project management. Thus, the PROMEP (PROject Management based on Effective Practices) metamodel will allow establishing a project management standard process to be tailored to each enterprise’s project through two steps: Firstly, to obtain a baseline snapshot of project management processes in SMSe a two-phase questionnaire was created to identify both performed and nonperformed practices. The x ProMEP – Metamodelo para la gestión de proyectos proposed questionnaire is based on Capability Maturity Model Integration for Development v1.2. As additional result, it is expected that the application of the questionnaire to the processes will help SMSe to identify those practices which are performed but not documented, which practices need more attention, and which are not implemented due to bad management or unawareness. Secondly, to easily an effectively support the software project management tasks in the PROMEP metamodel, a Process Asset Library (PAL) is designed to support the definition of project management processes and to achieve quantitative project management in SMSe. Both steps have been implemented as a computational tool that supports our metamodel approach. Concretely, the present research proposes the accomplishment of the PROMEP metamodel for those SMSe which develop software products and enable them to plan, supervise and control their software projects, identify risks and take corrective actions, establish and maintain a set of process assets, define quantitative models that predict the process performance, and provide improvement information. So, our study suggests an alternative metamodel to achieve higher performance levels in the SMSe environments. The main objective of this thesis is help to reduce software overruns and delivery time, and increase software quality in these types of organizations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo del trabajo fin de máster ha sido el estudio de la capacidad de los modelos de daño escalar en reproducir la localización de deformaciones en el hormigón. Para ello se ha utilizado un modelo de daño local con el ablandamiento regularizado (aproximación de fisura difusa) y un modelo de daño no local con formulación integral. Los análisis numéricos se han realizado con el código de elementos finitos Code-Aster. Las actividades realizadas en el trabajo fin de máster han sido: - resumen de los modelos existentes para la reproducción del fallo material. - descripción y estudio del comportamiento de un modelo de daño local "solo tracción" para el hormigón. - regularización del ablandamiento en el modelo de daño local para el modo de fractura tipo I. - descripción de los modelos de daño no local, en particular la formulación de gradiente implícito. - estudio del comportamiento del modelo de daño no local para el ensayo de extensión uniaxial. - aplicación de los modelos de daño local y no local a ensayos tridimensionales. Los elementos más destacables del trabajo son: - Construir un modelo de fisura difusa a partir del modelo de daño local “solo tracción” existente en Code-Aster. Para ello se ha derivado la pendiente de la rama de ablandamiento en la ley tensión-deformación uniaxial en función de los parámetros : (1) densidad de área de energía de fractura y (2) tamaño característico de la malla. - Estudio del comportamiento del modelo de daño no local en el ensayo de extensión uniaxial. En particular estudiar la influencia que los parámetros l (longitud característica de la formulación no local) y m (pendiente de la rama de ablandamiento en la ley tensión-deformación uniaxial) en la disipación del modelo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Acercarse a las obras de José M. García de Paredes, y mirarlas como un conjunto de ideas que nos indican una manera de pensar y de hacer arquitectura, nos explica un ideario que persiste en el tiempo. Tomando prestado el término “explicar” en el sentido que Stravinski le da en su Poética musical1: desplegar, desarrollar, describir una cosa, descubrir y aclarar su génesis, se comprueban las relaciones que cosas aparentemente dispersas tienen entre si, cómo se originan las obras para saber cómo determinan la arquitectura, una vez que ésta tiene vida propia y uso, pasado el tiempo. El motivo de esta tesis se encuentra en el orden, análisis y estudio de su archivo, realizado a partir del año 1990. García de Paredes, titulado en Madrid, fue arquitecto entre 1950 y 1990 y se inició en la arquitectura en un tiempo tan complejo como el actual. No fue un teórico de la arquitectura, si bien conoció en profundidad su teoría y dejó escritos y reflexiones sobre la manera de abordar el proyecto. Quizás no fue un arquitecto radicalmente innovador y sus obras son silenciosas, aunque muchas encierran planteamientos rotundos que permanecen voluntariamente en penumbra. Sin embargo sus obras son nítidas, tienen el valor de la coherencia y son valiosas por el conocimiento y por los valores que transmiten. Han cumplido su objetivo y ahora son parte de los lugares para los que se construyeron y parte de la vida de las personas para las que se proyectaron. En gran medida, poseen ya la pátina del tiempo. Su obra, no muy extensa, aúna ideas necesarias para abordar la práctica del proyecto y para llegar a ese voluntario resultado final en el que la arquitectura sea, además de una expresión personal, una actividad social capaz de hacer mejor la vida de las personas. Mirar la arquitectura de García de Paredes a través del estudio de todas las cuestiones que intervienen en ella y convertir su conocimiento en un instrumento útil de trabajo en el proyecto, es el objetivo de esta tesis. Así se analizan determinadas obras para exponer temas de antes y de ahora, ideas que son a la vez antiguas y contemporáneas. Este ideario sobre la arquitectura de García de Paredes no pertenece sólo a un tiempo, pues la bella utilidad social de la arquitectura y cómo llegar a ella a través del conocimiento y de la economía intelectual, sigue vigente. Y este objetivo tiene claramente una segunda lectura, pues al poner en valor el ideario de su obra, la presente tesis constituye tanto un homenaje como un agradecimiento al arquitecto. Sintetizar este ideario ha necesitado tanto del tiempo para organizar un archivo como de la práctica de la arquitectura para constatarlo. Durante una década, entre 1981 y 1990, trabajé en el estudio de José M. García de Paredes, con la mirada enfocada hacia los proyectos que entonces se desarrollaban en su estudio. En esos años, la música y las secciones de las salas de concierto llenaban las mesas de dibujo. En 1990, tras su inesperada marcha, me encontré con un legado de documentos que constituyen un fragmento de la arquitectura contemporánea española, que encierran la explicación de proyectos y planteamientos que son respuesta clara a la realidad de su momento. La preparación entonces de la documentación para las tres monografías sobre su obra me llevó a ordenar, clasificar y a documentar los fondos del estudio de manera sistemática y cronológicamente. Los documentos, conservados en archivadores y tubos sin numerar, desvelaban una obra en un momento en el cual el escenario de fondo del debate sobre arquitectura era ético. De manera casi artesanal y próximo de un grupo coherente de arquitectos, algunos vinculados también a las artes plásticas, García de Paredes utiliza los medios materiales a su alcance, interpretando la realidad de una forma personal, alejada de la frialdad del movimiento moderno estricto, con una voluntad de mejorarla y de prescindir de todo aquello que no fuera necesario. Las obras dan respuesta a esa realidad de tal manera que la transforman, como si de un “mágico realismo” se tratara. Estos documentos con olor a antiguo, más que narrar una historia, explican la manera en que se ha hecho esa historia, cómo las biografías y los acontecimientos se entrelazan para llegar al conocido resultado final. Y de un primer análisis, disponiéndolos a la vista de un mismo tiempo, va surgiendo otro interés que no es el de explicar su obra sino el de observar el proceso de trabajo de un arquitecto para desvelar un método de proyecto. Sobre el método de trabajo de un músico, Azorín se pregunta en su artículo “Vida imaginaria de Falla”: “Es fácil ver trabajar a un pintor, no es tan fácil ver enfrascado en su labor a un literato, aunque en las redacciones solamos ver cómo escribe un poeta que hace artículos para un periódico. ¿Pero cómo imaginamos a un músico en su tarea?. ¿Cómo escribe un músico?. ¿Es que siente de pronto un arrebato lírico y un poco desmelenado, los músicos deben llevar el pelo largo, se sienta al piano y comienza a tañer como una inspirada pitonisa?. ¿es que se levanta a media noche y, arrebatado por la inspiración y a la luz de la luna, si la hay, escribe febrilmente esas garrapatitas que vemos en los hilos telegráficos de la música?" Manuel de Falla en una carta le responde: “Nada de eso, mi querido amigo, mi trabajo de compositor no es tan misterioso como usted imagina: podría compararse al de un escritor que fuera a la vez arquitecto”. ¿Y cómo trabaja un arquitecto?. La complejidad del proceso arquitectónico nos presenta sin embargo resultados finales que sólo a través de una observación minuciosa permiten entrever el recorrido desde el pensamiento hasta la obra acabada. El escritor narra lo que ve o imagina y el arquitecto construye y da forma a esa realidad o a esos deseos y para ello debe mirar, escuchar y debe saber hacer. Analizar este proceso nos lleva inexorablemente a desvelar las claves que hacen valiosas determinadas arquitecturas. En junio de 1986 García de Paredes escribe el texto “Tres paisajes con arquitecturas”4. El texto describe tres paisajes culturales diferentes en distintos tiempos. El primero que describe es el Madrid neoclásico y el significado que tiene en este paisaje el Museo del Prado. El segundo paisaje se denomina “Alhambra versus Carlos V” y en él relata un delicado escenario donde se entrelazan distintas cuestiones relativas a la intervención en lugares históricos. En el tercer paisaje “Paisaje con Ruinas” tras describir las hermosas ruinas físicas del pasado concluye con una reflexión: “Hay ruinas y ruinas… Pero quizá no sean estas las verdaderas ruinas de nuestro tiempo. Qué clase de ruina producirá nuestra modesta arquitectura del siglo XX?. Nuestro legado no debería leerse en clave de piedras como las de otras épocas que no disponían de otro lenguaje que el de construir para los tiempos. Sin embargo es posible que surjan otras claves, quizá aún no bien conocidas, que sean para las generaciones futuras de tan clara lectura como la de este tercer Paisaje”. Encontrar esas claves contemporáneas, es el objeto de este paseo por las obras y escritos de García de Paredes. Mirar, suprimido el tiempo, los planos, dibujos, escritos, libros y fotografías del archivo del arquitecto, ordenando y comprendiendo los motivos que propiciaron cada obra, nos lleva a pensar que la arquitectura de cada momento es sólo un desplazamiento de los anteriores. Nada ahora es completamente distinto de lo que era entonces y la arquitectura de antes puede ser interpretada, más allá de aspectos formales, por otras generaciones, desdibujándose el tiempo donde pretendemos ordenarla. Este legado de claves conceptuales nos es útil ahora para conocer lo que permanece en la arquitectura pensando en cuestiones actuales a través de papeles antiguos. El legado de esa “modesta arquitectura” no se debe leer pues en clave de “piedras”, como expresaba García de Paredes. Gran parte de sus obras se construyen con materiales sencillos y la lectura de su valor no es directa. Sin embargo explican en qué momento la arquitectura pasa a ser un hecho capaz de transmitir intenciones ocultas y convertirse en una actividad social en sintonía con la realidad. Desvelar esta colección de ideas para enfocar cuestiones de arquitectura, en el convencimiento de que este ideario es tan válido hoy como entonces, nos acerca a ese utópico método de trabajo del arquitecto. En este ciclo abierto se han seleccionado determinadas obras que permiten plantear mejor las cuestiones que ilustran su razón de ser y así pues se suceden lugares y personas, números y geometrías, música, artes plásticas y arquitecturas. ABSTRACT Looking at the work of José M. García de Paredes as a set of ideas that outline a way of imagining and producing architecture, explains a vision that has persisted in time. Employing the word “explain” in the same sense as Stravinsky in his Poetics of Music: deploying, developing and describing something, discovering and clarifying its origins as a way of observing the relationships between things and the way designs originate in order to understand how they determine the architecture, once it has a life and use of its own after time has passed. This thesis is based on an analysis of the archives of José M. Garcia de Paredes, which began in 1990. After graduating from the Madrid School in 1950 —an equally complex time as today— he continued to practise architecture until 1990. He was not an architectural theorist but he had a deep understanding of theory and left essays and ideas on the way to tackle projects. Although he may not have been a radically innovative architect and his work may seem subdued, much of it embodies categorical approaches, which are deliberately overshadowed. Nevertheless, his work is sharp, consistent and is valuable for the knowledge and values it transmits. It has served its purpose, it now forms part of the places for which it was built and has become part of the lives of the people it was designed for. To a large extent, his buildings already show the patina of time. While not large in number, they bring together the ideas needed to put a project into practice and arrive at an end result in which the architecture is also a personal expression, a social activity that makes life better for people. The discourse takes a new look at the architecture of Garcia de Paredes through an analysis of all the issues involved in order to turn the resulting knowledge into a useful tool for project work. It therefore now, ideas that are old but at the same time contemporary. This vision time. The beautiful social utility of his architecture and the way he arrived at it through knowledge and intellectual economy still remain valid. The synthesis of this vision has required much time to organize the archive and also a professional architectural practice to put it into perspective. The preserved documents reveal a body of work that was designed at a time when ethics shaped the underlying scenario of the Relación de architectural debate. The architect used the material resources at his disposal in an almost craftsman-like way, in the company of a congruent group of architects. He interpreted reality in a personal way, removed from the coldness of the strict Modern Movement, striving to improve it and strip off anything that was unnecessary. His buildings responded to their context in such a way that transformed it, as if they were “magical realism”. Another line of analysis emerged from an initial analysis, with all the documents in view at the same time: not to explain his work but rather to study the design process of an architect in order to discover a method. In 1986, García de Paredes wrote “Three landscapes with architectures”, which describes three cultural landscapes in different times. After describing the beauty of the physical ruins of the past, the third landscape, “Landscape with Ruins”, concludes with this observation: “There are ruins and ruins ... But these might not be the real ruins of our time. What kind of ruin will be produced by our modest 20th century architecture? Our legacy should not be interpreted in the key of mere stones, like those of past eras which had access to no other language than construction for all times. Other keys, perhaps not yet familiar, may well emerge and be as legible for future generations as this third Landscape”. This tour of the work and writings of Garcia de Paredes is aimed at discovering these contemporary keys. The legacy of such keys can now help us to know what endures in architecture; thinking about current issues through the perspective of old papers. Having set aside the time factor, looking at the drawings, essays, books and photographs from the architect’s archives, organising and understanding the reasons that gave rise to each work, I now believe that the architecture of each moment is only previous work that has been shifted. Nothing is completely different now from what it was back then. The architecture of the past can be interpreted by other generations, looking beyond the aspects of form, blurring the time factor when we want to order it. For this purpose I have selected particular works that permit a better enunciation of the issues that illustrate their rationale, hence the succession of places and people, numbers and geometries, music, art and architectures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Plaza Navona representa una de las visitas obligadas de Roma, pero solo algunos advertirán en ella la presencia española en la sala de exposiciones del Instituto Cervantes o en la inmediata Libreria Española. Todavía serán menos los que se percatarán de la huella española dejada en aquella iglesia de fachada anónima situada, en el extremo sur de la plaza: la antigua iglesia de Santiago de los Españoles. La presente tesis pretende, utilizando el dibujo como guía, herramienta y fin del proceso de análisis y estudio, reconstruir el proceso de conformación y construcción de la que fue iglesia española principal, cuya fundación hace patente el destacado papel jugado por la “nación” castellana en Roma durante la Edad Media; y en torno a la que se aglutinaron las actividades religiosas, diplomáticas y financieras de los castellanos que vivieron en la actual capital italiana. Se intentará recrear en el tiempo la que es hoy la iglesia de Nuestra Señora del Sagrado Corazón, sometiéndola a una restitución gráfica disciplinada, homogénea y objetiva en la medida de lo posible de las varias etapas que la han caracterizadas, desde su fundación hasta cuando en 1878 España se deshizo de ella, ya en ruina, vendiéndola. Como nos comenta Gaetano Moroni, de todas las comunidades nacionales que se encontraban en Roma la española parece ser efectivamente una de las más rica y prestigiosa. Aunque lo que no cuenta Moroni no haya sido todavía demostrado, dicho enunciado resulta de todas formas interesante puesto que pone el acento sobre el hecho de que ya desde el siglo X parece ser habitual de ocupar y reutilizar antiguas ruinas, usándolas como base para la construcción de hospitales para los peregrinos. Esta operación se hizo particularmente frecuente sobre todo antes del Gran Jubileo de 1450: de hecho desde la primera mitad del Quattrocento se fundan distintas iglesias y hospitales nacionales para acoger y prestar una adecuada asistencia y socorro a los innumerables peregrinos que llegaban a la ciudad, edificios que se van construyendo sobre los restos de antiguos edificios de época romana. Prueba de ello es en efecto la fundación originaria de la iglesia y hospital de los Españoles que, parte del conjunto de edificios que compone la Plaza Navona, situada en el corazón de Campo Marzio y cuya posición y forma corresponden a la del antiguo Estadio de Domiciano, y que ahora es en sus dimensiones, en su imagen arquitectónica y en su consistencia material, el resultado de la definición proyectual y de las transformaciones que se llevaron a cabo sobre lo que quedaba del antiguo templo español del siglo XV, entre finales del ‘800 y los años 30 del siglo XX . Transformaciones devastadoras, huellas grabadas o canceladas que encuentran una justificación en los acontecimientos históricos reflejados en el patrimonio urbano. El análisis de todas las fuentes permite trazar, si no la totalidad, buena parte de las modificaciones que la antigua iglesia de Santiago ha sufrido. La construcción del templo se puede dividir en tres momentos decisivos: una primera etapa de fundación en 1450-1478 en la que la iglesia tenía fachada y entrada en via de la Sapienza, hoy Corso Rinascimento; una segunda de significativa ampliación hacia Plaza Navona con una nueva fachada monumental hacia ese espacio público en 1496-1500; y una última importante ampliación entre 1525-1526, llevada a cabo por el arquitecto Antonio da Sangallo el Joven. Tras la intensa vida del templo, en el siglo XVIII, éste cae en ruina y finalmente es vendido en 1878 a la orden de los misioneros franceses de Nuestra Señora del Sagrado Corazón que la reconvierten en iglesia reformando totalmente el conjunto en 1881, según proyecto de Luca Carimini. En 1936, en plena fase de rectificación de trazados urbanos por obra del régimen fascista, según proyecto de Arnaldo Foschini, se mutila su extremidad hacia vía de la Sapienza dejando su estado tal y como se contempla en la actualidad. ABSTRACT The objective of this thesis is the reconstruction of the design and edification process -using drawings and sketches as a guide, tool and the end of the analytical process- of a church which was once the preeminent Spanish church in medieval Rome, known today as Nostra Signora del Sacro Cuore (Our Lady of the Sacred Heart). The founding of this church illustrates the important role held by the Castillian “nation” in Rome during the Middle Ages. It was the focal point of all the religious, diplomatic and economic activities of the Castillian community residing in today’s Italian capital. The aim of this proyect is a recreation the church in time by submitting it to a disciplined, homogenous and objective graphic restitution of the various stages most characteristic the temple, starting from its foundation until 1878 when, in a state of ruins, the church was finally sold off by Spain. Gaetano Moroni once commented that of all the international communities found in Rome, the Spanish community seemed to be one of the wealthiest and most prestigious. Such a statement proves interesting as it emphasizes that starting in the 10th century we see there was a widespread custom of occupying and reusing old ruins for use as the bases of new constructions of hospitals for pilgrims. This custom became especially frequent just before the Jubilee Year of 1450: in fact, in the first half of the Quattrocento we see the founding of many different national churches and hospitals which provided shelter and care to the countless pilgrims arriving in the city, buildings which were constructed on top of the ruins of ancient buildings left over from Roman times. Proof of this is the original foundation of the Spanish church and hospital forming part of the Piazza Navona, built upon and following the outline of the Stadium of Domitian, in the heart of Campo Marzio. Now, in its dimensions, its architectural image and its material substance, it represents the predominant result of the planning definitions and the transformations which affected the old 15th-century Spanish temple. Ocurring between the end of the 19th century and the 1930s, the transformations were devastating, erasing original peculiarities and engraving new ones, transformations made justifiable by the historical events reflected in its urban environs. Analyzing all sources allows us to trace, even if not in entirety, still a sizeable portion of the modifications undergone by the old Church of Saint James. The construction of the temple can be divided into three decisive moments: its foundation, from 1450 to 1478, when the church’s façade and main door looked out on to the Via della Sapienza, today’s central avenue of Corso del Rinascimento; the second stage being a major expansion towards the Piazza Navona (1496-1500) with a new, monumental façade facing the public space; and the third was the last significant expansion, carried out from 1525 to 1526 by the architect Antonio da Sangallo the Younger. Despite an intense and bustling life during the Modern Age, in the 18th century the church began to fall into ruin and was finally sold in 1878 to the order of French missionaries of Our Lady of the Sacred Heart, who reconverted it into a church and completely renovated the structure in 1881 in a project supervised by Luca Carimini. In 1936, the corrective urban redesign of Rome carried out by the fascist regime and implemented by Arnaldo Foschini mutilated the part bordering Via della Sapienza, leaving it as we see it today.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La problemática actual de las canteras en la cercanía de las grandes ciudades, debido a la escasez de yacimientos y a las restricciones medioambientales, están poniendo en graves problemas el abastecimiento de áridos naturales y encareciendo su coste. El proyecto realizado responde a la actual necesidad de los países del mundo desarrollado por buscar soluciones a los problemas de abastecimiento de materias primas para la construcción en las zonas urbanizadas. La dependencia de nuestra sociedad hacia los recursos naturales y la consideración de su importancia hacen que se deban aprovechar al máximo, ya sea reciclando, reutilizando o revalorizando. Este proyecto está centrado en los residuos utilizados en el sector de la construcción y la viabilidad de su reutilización. Hemos evaluado la situación y la legislación acerca de la posibilidad de reciclar los materiales de la construcción para volverlos a introducir en el mercado; llevando a cabo una aplicación práctica en la Comunidad de Madrid. El proyecto se complementa con el diseño y estudio de viabilidad de una instalación de reciclaje de residuos de la construcción y demolición en este micromercado. ABSTRACT The current problems of the quarries in the vicinity of large cities, due to the scarcity of deposits and environmental restrictions are putting in serious trouble supplying natural aggregates and more expensive cost. The project undertaken reflects the current need for developed countries to seek solutions to the problems of supply of raw materials for construction in urbanized areas worldwide. The dependence of our society towards natural resources and consideration of its importance that should be made to maximize either by recycling , reusing or revalued. This project is focused on the waste used in the construction sector and feasibility of reuse. We have assessed the situation and legislation about the possibility of recycling construction materials for re- entering the market ; carrying out a practical application in the Community of Madrid. The project complements the design and feasibility study of a facility for recycling construction waste and demolition in this micro market

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se propone una metodología para la evaluación de soluciones constructivas de fachada para la rehabilitación de viviendas sociales, construidas entre el final de la Guerra Civil y la entrada en vigor de la norma básica NBE-CT-79, sobre condiciones térmicas en edificios. La metodología parte por un lado del análisis del estado actual en las viviendas, y por otro de la caracterización de las soluciones constructivas de rehabilitación, para la evaluación conjunta de las posibles mejoras. Esta evaluación persigue valorar su repercusión en la calidad del ambiente interior, y en la reducción de la demanda energética para acondicionamiento térmico. Se aplica sobre dos viviendas tipo que se han monitorizado en Madrid, utilizando dos soluciones innovadoras para rehabilitación energética, que disponen de documentos de idoneidad DIT y DITE. Una incorpora sobre la fachada tipo un aislamiento por el exterior, y otra incorpora un sistema de fachada ventilada, también sobre esta fachada tipo. El análisis de las viviendas se ha realizado a partir de la toma de datos, ensayos y estudio de detalle, llevados a cabo a lo largo de los años 2014 y 2015. El análisis de los sistemas de fachada se ha realizado a partir de ensayos controlados, comparando los resultados para tres tipos de fachada: una fachada tipo, habitual en la construcción de las viviendas de este periodo, y las dos soluciones innovadoras mencionadas. Una vez realizado el diagnóstico de las viviendas y el análisis de los ensayos de los sistemas constructivos, los resultados obtenidos se utilizan para generar los modelos de simulación sobre los que evaluar las mejoras. El periodo de estudio comprende cuatro décadas que comienzan en 1940, en un momento con escasos medios técnicos para la construcción, y que coincide con el comienzo del crecimiento en las grandes ciudades, y finaliza con la incorporación en la normativa de las exigencias de aislamiento en fachadas, de 1979. En la ciudad de Madrid las viviendas construidas en este periodo, suponen un 45% del total de viviendas censadas en 2011. La rehabilitación energética se ha ido incorporando en los sucesivos planes nacionales de vivienda como actuación protegida, y son muchos y muy diversos los planes de acción desde la administración en materia de vivienda social, tanto a nivel nacional como europeo. La vivienda queda incluida en materia de desarrollo y cohesión urbana, territorial y social, haciendo necesario un enfoque integrado. Los barrios de vivienda social forman parte de un patrimonio construido en los que los criterios de sostenibilidad toman especial interés y relevancia, ya que a través del tiempo se han construido como actores y testigos de su historia social, económica, ambiental y cultural. El diseño de los modelos y actuaciones de futuro se sustenta en la asimilación de esa complejidad y diversidad adquirida. Por otro lado, el actual reto que impone el calentamiento global obliga a plantear escenarios de adaptación y mejora en estos edificios, con una especial atención a la dependencia energética, el consumo de recursos, y emisiones de gases de efecto invernadero. La fachada es el elemento más importante de la envolvente en los edificios multifamiliares, siendo el lugar donde se produce el intercambio entre el ambiente interior y exterior. Su rehabilitación puede mejorar las prestaciones de habitabilidad en las viviendas, y disminuir la demanda de energía para alcanzar unas condiciones de confort estándar. El trabajo de investigación que se ha realizado, forma parte de una linea de investigación abierta sobre sistemas constructivos y habitabilidad en edificación. ABSTRACT A methodology for the evaluation of facade’s constructive solutions for social housing refurbishment, built between the end of the Civil War, and the entry into force of the basic standard NBE-CT-79 on thermal conditions in buildings is proposed. This methodology starts both with the analysis of the current status in dwellings, and with the characterization of rehabilitation’s constructive solutions performance, for the integrated assessment of improvements. The evaluation seeks to assess their impact on the indoor environmental quality, and on reducing the energy demand for thermal conditioning. The methodology is applied to two standard dwellings, that have been monitored in Madrid, with two innovative solutions for energy refurbishment, which have DIT and DITE assessment documents. One incorporates an exterior insulation, and the other incorporates a ventilated facade system. The analysis of the dwellings was made from data collection, testing and detailed study, conducted throughout 2014 and 2015. Analysis of the facade systems was made from controlled trials comparing the results for three types of façade: a standard usual facade common in the construction of this period, and the two innovative solutions mentioned. Based on the diagnosis of housing and systems analysis, the results are used to generate simulation models on which assess the improvements. The study period comprises four decades starting in 1940, at a time with limited technical resources for construction, which coincides with the beginning of growth in big cities, and ends with the incorporation in the 1979 legislation of the façade’s insulation requirements. In the city of Madrid the houses built in this period account for 45% of all households surveyed in 2011. As a “protected action” energy rehabilitation has been incorporated in successive national housing plans, and there are many and very different action plans from the Administration in the field of social housing, both at national and European level. An integrated approach is needed, due to the inclusion of housing in development and urban, territorial and social cohesion. Social housing neighborhoods are part of the built heritage. Sustainability criteria therefore are particularely relevant, since over time they have been built as actors and witnesses of their social, economic, environmental and cultural history. The design and performance of future models is based on the assimilation of this complexity and diversity acquired. On the other hand, the current challenge posed by global warming forces to consider scenarios for adaptation and improvement in these buildings, with particular attention to energy dependence, resource consumption, and greenhouse gas emissions. The facade is the most important element of the envelope in the multi-family buildings, being the place where the exchange occurs between the indoor and outdoor environments. Its rehabilitation can improve wellbeing in housing performance, and reduce energy demand to achieve standard comfort conditions. This research that has been done, is part of an open research line on construction and living conditions in buildings.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La capacidad de transporte es uno de los baremos fundamentales para evaluar la progresión que puede llegar a tener un área económica y social. Es un sector de elevada importancia para la sociedad actual. Englobado en los distintos tipos de transporte, uno de los medios de transporte que se encuentra más en alza en la actualidad, es el ferroviario. Tanto para movilidad de pasajeros como para mercancías, el tren se ha convertido en un medio de transporte muy útil. Se encuentra dentro de las ciudades, entre ciudades con un radio pequeño entre ellas e incluso cada vez más, gracias a la alta velocidad, entre ciudades con gran distancia entre ellas. Esta Tesis pretende ayudar en el diseño de una de las etapas más importantes de los Proyectos de instalación de un sistema ferroviario: el sistema eléctrico de tracción. La fase de diseño de un sistema eléctrico de tracción ferroviaria se enfrenta a muchas dudas que deben ser resueltas con precisión. Del éxito de esta fase dependerá la capacidad de afrontar las demandas de energía de la explotación ferroviaria. También se debe atender a los costes de instalación y de operación, tanto costes directos como indirectos. Con la Metodología que se presenta en esta Tesis se ofrecerá al diseñador la opción de manejar un sistema experto que como soluciones le plantee un conjunto de escenarios de sistemas eléctricos correctos, comprobados por resolución de modelos de ecuaciones. Correctos desde el punto de vista de validez de distintos parámetros eléctrico, como de costes presupuestarios e impacto de costes indirectos. Por tanto, el diseñador al haber hecho uso de esta Metodología, tendría en un espacio de tiempo relativamente corto, un conjunto de soluciones factibles con las que poder elegir cuál convendría más según sus intereses finales. Esta Tesis se ha desarrollado en una vía de investigación integrada dentro del Centro de Investigaciones Ferroviarias CITEF-UPM. Entre otros proyectos y vías de investigación, en CITEF se ha venido trabajando en estudios de validación y dimensionamiento de sistemas eléctricos ferroviarios con diversos y variados clientes y sistemas ferroviarios. A lo largo de los proyectos realizados, el interés siempre ha girado mayoritariamente sobre los siguientes parámetros del sistema eléctrico: - Calcular número y posición de subestaciones de tracción. Potencia de cada subestación. - Tipo de catenaria a lo largo del recorrido. Conductores que componen la catenaria. Características. - Calcular número y posición de autotransformadores para sistemas funcionando en alterna bitensión o 2x25kV. - Posición Zonas Neutras. - Validación según normativa de: o Caídas de tensión en la línea o Tensiones máximas en el retorno de la línea o Sobrecalentamiento de conductores o Sobrecalentamiento de los transformadores de las subestaciones de tracción La idea es que las soluciones aportadas por la Metodología sugieran escenarios donde de estos parámetros estén dentro de los límites que marca la normativa. Tener la posibilidad de tener un repositorio de posibles escenarios donde los parámetros y elementos eléctricos estén calculados como correctos, aporta un avance en tiempos y en pruebas, que mejoraría ostensiblemente el proceso habitual de diseño para los sistemas eléctricos ferroviarios. Los costes directos referidos a elementos como subestaciones de tracción, autotransformadores, zonas neutras, ocupan un gran volumen dentro del presupuesto de un sistema ferroviario. En esta Tesis se ha querido profundizar también en el efecto de los costes indirectos provocados en la instalación y operación de sistemas eléctricos. Aquellos derivados del impacto medioambiental, los costes que se generan al mantener los equipos eléctricos y la instalación de la catenaria, los costes que implican la conexión entre las subestaciones de tracción con la red general o de distribución y por último, los costes de instalación propios de cada elemento compondrían los costes indirectos que, según experiencia, se han pensado relevantes para ejercer un cierto control sobre ellos. La Metodología cubrirá la posibilidad de que los diseños eléctricos propuestos tengan en cuenta variaciones de coste inasumibles o directamente, proponer en igualdad de condiciones de parámetros eléctricos, los más baratos en función de los costes comentados. Analizando los costes directos e indirectos, se ha pensado dividir su impacto entre los que se computan en la instalación y los que suceden posteriormente, durante la operación de la línea ferroviaria. Estos costes normalmente suelen ser contrapuestos, cuánto mejor es uno peor suele ser el otro y viceversa, por lo que hace falta un sistema que trate ambos objetivos por separado. Para conseguir los objetivos comentados, se ha construido la Metodología sobre tres pilares básicos: - Simulador ferroviario Hamlet: Este simulador integra módulos para construir esquemas de vías ferroviarios completos; módulo de simulación mecánica y de la tracción de material rodante; módulo de señalización ferroviaria; módulo de sistema eléctrico. Software realizado en C++ y Matlab. - Análisis y estudio de cómo focalizar los distintos posibles escenarios eléctricos, para que puedan ser examinados rápidamente. Pico de demanda máxima de potencia por el tráfico ferroviario. - Algoritmos de optimización: A partir de un estudio de los posibles algoritmos adaptables a un sistema tan complejo como el que se plantea, se decidió que los algoritmos genéticos serían los elegidos. Se han escogido 3 algoritmos genéticos, permitiendo recabar información acerca del comportamiento y resultados de cada uno de ellos. Los elegidos por motivos de tiempos de respuesta, multiobjetividad, facilidad de adaptación y buena y amplia aplicación en proyectos de ingeniería fueron: NSGA-II, AMGA-II y ɛ-MOEA. - Diseño de funciones y modelo preparado para trabajar con los costes directos e indirectos y las restricciones básicas que los escenarios eléctricos no deberían violar. Estas restricciones vigilan el comportamiento eléctrico y la estabilidad presupuestaria. Las pruebas realizadas utilizando el sistema han tratado o bien de copiar situaciones que se puedan dar en la realidad o directamente sistemas y problemas reales. Esto ha proporcionado además de la posibilidad de validar la Metodología, también se ha posibilitado la comparación entre los algoritmos genéticos, comparar sistemas eléctricos escogidos con los reales y llegar a conclusiones muy satisfactorias. La Metodología sugiere una vía de trabajo muy interesante, tanto por los resultados ya obtenidos como por las oportunidades que puede llegar a crear con la evolución de la misma. Esta Tesis se ha desarrollado con esta idea, por lo que se espera pueda servir como otro factor para trabajar con la validación y diseño de sistemas eléctricos ferroviarios. ABSTRACT Transport capacity is one of the critical points to evaluate the progress than a specific social and economical area is able to reach. This is a sector of high significance for the actual society. Included inside the most common types of transport, one of the means of transport which is elevating its use nowadays is the railway. Such as for passenger transport of weight movements, the train is being consolidated like a very useful mean of transport. Railways are installed in many geography areas. Everyone know train in cities, or connecting cities inside a surrounding area or even more often, taking into account the high-speed, there are railways infrastructure between cities separated with a long distance. This Ph.D work aims to help in the process to design one of the most essential steps in Installation Projects belonging to a railway system: Power Supply System. Design step of the railway power supply, usually confronts to several doubts and uncertainties, which must be solved with high accuracy. Capacity to supply power to the railway traffic depends on the success of this step. On the other hand is very important to manage the direct and indirect costs derived from Installation and Operation. With the Methodology is presented in this Thesis, it will be offered to the designer the possibility to handle an expert system that finally will fill a set of possible solutions. These solutions must be ready to work properly in the railway system, and they were tested using complex equation models. This Thesis has been developed through a research way, integrated inside Citef (Railway Research Centre of Technical University of Madrid). Among other projects and research ways, in Citef has been working in several validation studies and dimensioning of railway power supplies. It is been working by a large range of clients and railways systems. Along the accomplished Projects, the main goal has been rounded mostly about the next list of parameters of the electrical system: - Calculating number and location of traction substations. Power of each substation. - Type of Overhead contact line or catenary through the railway line. The wires which set up the catenary. Main Characteristics. - Calculating number and position of autotransformers for systems working in alternating current bi-voltage of called 2x25 kV. - Location of Neutral Zones. - Validating upon regulation of: o Drop voltages along the line o Maximum return voltages in the line o Overheating/overcurrent of the wires of the catenary o Avoiding overheating in the transformers of the traction substations. Main objective is that the solutions given by the Methodology, could be suggest scenarios where all of these parameters from above, would be between the limits established in the regulation. Having the choice to achieve a repository of possible good scenarios, where the parameters and electrical elements will be assigned like ready to work, that gives a great advance in terms of times and avoiding several tests. All of this would improve evidently the regular railway electrical systems process design. Direct costs referred to elements like traction substations, autotransformers, neutral zones, usually take up a great volume inside the general budget in railway systems. In this Thesis has been thought to bear in mind another kind of costs related to railway systems, also called indirect costs. These could be enveloped by those enmarked during installation and operation of electrical systems. Those derived from environmental impact; costs generated during the maintenance of the electrical elements and catenary; costs involved in the connection between traction substations and general electric grid; finally costs linked with the own installation of the whole electrical elements needed for the correct performance of the railway system. These are integrated inside the set has been collected taking into account own experience and research works. They are relevant to be controlled for our Methodology, just in case for the designers of this type of systems. The Methodology will cover the possibility that the final proposed power supply systems will be hold non-acceptable variations of costs, comparing with initial expected budgets, or directly assuming a threshold of budget for electrical elements in actual scenario, and achieving the cheapest in terms of commented costs from above. Analyzing direct and indirect costs, has been thought to divide their impact between two main categories. First one will be inside the Installation and the other category will comply with the costs often happens during Railway Operation time. These costs normally are opposed, that means when one is better the other turn into worse, in costs meaning. For this reason is necessary treating both objectives separately, in order to evaluate correctly the impact of each one into the final system. The objectives detailed before build the Methodology under three basic pillars: - Railway simulator Hamlet: This software has modules to configure many railway type of lines; mechanical and traction module to simulate the movement of rolling stock; signaling module; power supply module. This software has been developed using C++ and Matlab R13a - Previously has been mandatory to study how would be possible to work properly with a great number of feasible electrical systems. The target comprised the quick examination of these set of scenarios in terms of time. This point is talking about Maximum power demand peaks by railway operation plans. - Optimization algorithms. A railway infrastructure is a very complex system. At the beginning it was necessary to search about techniques and optimization algorithms, which could be adaptable to this complex system. Finally three genetic multiobjective algorithms were the chosen. Final decision was taken attending to reasons such as time complexity, able to multiobjective, easy to integrate in our problem and with a large application in engineering tasks. They are: NSGA-II, AMGA-II and ɛ-MOEA. - Designing objectives functions and equation model ready to work with the direct and indirect costs. The basic restrictions are not able to avoid, like budgetary or electrical, connected hardly with the recommended performance of elements, catenary and safety in a electrical railway systems. The battery of tests launched to the Methodology has been designed to be as real as possible. In fact, due to our work in Citef and with real Projects, has been integrated and configured three real railway lines, in order to evaluate correctly the final results collected by the Methodology. Another topic of our tests has been the comparison between the performances of the three algorithms chosen. Final step has been the comparison again with different possible good solutions, it means power supply system designs, provided by the Methodology, testing the validity of them. Once this work has been finished, the conclusions have been very satisfactory. Therefore this Thesis suggest a very interesting way of research and work, in terms of the results obtained and for the future opportunities can be created with the evolution of this. This Thesis has been developed with this idea in mind, so is expected this work could adhere another factor to work in the difficult task of validation and design of railway power supply systems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las desviaciones de tiempo y coste constituyen un fenómeno muy frecuente en la industria de la construcción. Existe un gran número de proyectos que no se terminan en el plazo y el tiempo estipulados, y esto parece que se ha convertido más en la norma que en la excepción. Los proyectos de construcción son heterogéneos por naturaleza y pueden llegar a ser muy complejos, involucrando numerosos procesos y expuestos a infinidad de variables y factores que pueden afectar el cumplimiento de los objetivos de tiempo y coste. Las desviaciones de tiempo y coste no favorecen ni al promotor ni al resto de equipos participantes del proyecto, dando lugar además la mayoría de las veces a situaciones de conflictos y relaciones adversas entre participantes del proyecto. Es por todo ello que surge la necesidad de atender a una estrategia de gestión de riesgos eficaz, como herramienta esencial de la gestión de proyectos para contribuir al éxito de los mismos. Es preciso considerar también que los proyectos de construcción pueden presentar distintas características específicas según el tipo de proyecto de que se traten. El presente trabajo de investigación estudia concretamente los proyectos de edificios de uso hotelero, los cuales pueden presentar estructuras organizativas muy diversas, incluyendo numerosos agentes participantes y procesos que a su vez se desarrollan en un entorno que ya es muy dinámico por su propia naturaleza. En el sector hotelero el cumplimiento de los objetivos de tiempo y coste del proyecto son especialmente importantes ya que cualquier retraso en la fecha de apertura estimada del hotel se traducirá en pérdidas importantes de negocio y cuota de mercado y podrá llevar asociadas también repercusiones importantes en otros aspectos relacionados con la operativa hotelera. Si se conocen las causas que originan tales desviaciones de tiempo y coste, se podrán establecer las correspondientes medidas de actuación para anticiparnos a ellas y que no se produzcan, siendo ésta la base del propósito de esta tesis. Así, la identificación de riesgos supone el primer paso para una gestión de riesgos eficaz, fundamental para contribuir al éxito de un proyecto. El contexto de la investigación delimita como lugar geográfico de estudio España, donde el sector turístico constituye un motor importante de la economía y en el que la eficiencia y competitividad debe estar reflejada también en el proceso del proyecto edificatorio, minimizándose los retrasos y sobrecostes. El presente estudio investiga por tanto los factores de riesgo más críticos que dan lugar a desviaciones de tiempo y coste en proyectos de edificios de uso hotelero en España. A partir del análisis de la literatura existente se genera una propuesta de identificación de factores de riesgo, que se analiza mediante un análisis cualitativo basado en la opinión de expertos y estudio de casos específicos. De los resultados de este análisis se determinan los niveles críticos para cada factor de riesgo, se comparan además las percepciones de niveles de riesgo según distintos tipos de grupos profesionales, y se establece un procedimiento en cuanto a prioridad de acción de respuesta. Así, se desarrolla una propuesta final de identificación y matriz de factores de riesgo con el objetivo de que pueda servir de base a propietarios, empresas gestoras y otros participantes de proyectos hoteleros para diseñar un plan de gestión de riesgos eficaz, contribuyendo de este modo al éxito del proyecto en cuanto a cumplimiento de objetivos de tiempo y coste programados. ABSTRACT Cost and schedule overruns constitute a very frequent phenomenon in the construction industry. A large number of construction projects do not finish on the estimated time and cost, and this scenario seems to be becoming the norm rather than the exception. Construction projects are heterogeneous by nature and they can become very complex as they involve a large number of processes which are subject to many variables and factors that may give rise to time and cost overruns. Time and cost overruns cause dissatisfaction not only to owners but all stakeholders involved in the project, leading most of the times to undesirable situations of conflicts and adversarial relationships between project participants. Hence, it becomes necessary to adopt an effective risk management strategy as an essential part of project management in order to achieve project success. Construction projects may have different characteristics depending on the type of project. This research specifically focuses on hotel construction projects. Hotel projects usually involve complex organizational structures, including many project participants and processes which develop in an environment that is already dynamic by nature. In this type of projects, the achievement of time and cost objectives is particularly important, as any delay of the hotel opening date will result in significant loss of business and market share and may also involve key important implications related to hotel operations. If the risk factors that lead to time and cost overrun are known in advance, preventive actions could be established in order to avoid them, so that time and cost overruns are minimized. This constitutes the aim of this research, being risk identification the first step of any effective risk management strategy for project success. The context of this research is focused on a particular geographical area, being this Spain. Tourism in Spain is a major contributor to the Spanish economy, and efficiency and competiveness should also be reflected in the building processes of the hotel industry, where delays and cost overruns should be kept to the minimum. The aim of this study is to explore the most critical risk factors leading to time and cost overruns in hotel construction projects in Spain. From the analysis of the literature review, a proposal of a risk identification framework is developed, which will be further analyzed by a qualitative assessment based on expert opinions and the study of specific case studies. From the results of this assessment, the levels of risk criticality are determined for the identified factors, a comparison of the perceptions of risk levels among different groups of respondents is also carried out, and a procedure for prioritization of factors in terms of needs of response is established. A final proposal of a risk register matrix framework is then developed in order to assist hotel owners, project management companies or other hotel project stakeholders, and provide them with a base to design their own specific risk management plans, contributing in this way to project success with regards to the achievement of cost and time objectives.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El proyecto trata del desarrollo de un software para realizar el control de la medida de la distribución de intensidad luminosa en luminarias LED. En el trascurso del proyecto se expondrán fundamentos teóricos sobre fotometría básica, de los cuales se extraen las condiciones básicas para realizar dicha medida. Además se realiza una breve descripción del hardware utilizado en el desarrollo de la máquina, el cual se basa en una placa de desarrollo Arduino Mega 2560, que, gracias al paquete de Labview “LIFA” (Labview Interface For Arduino”), será posible utilizarla como tarjeta de adquisición de datos mediante la cual poder manejar tanto sensores como actuadores, para las tareas de control. El instrumento de medida utilizado en este proyecto es el BTS256 de la casa GigaHerzt-Optik, del cual se dispone de un kit de desarrollo tanto en lenguaje C++ como en Labview, haciendo posible programar aplicaciones basadas en este software para realizar cualquier tipo de adaptación a las necesidades del proyecto. El software está desarrollado en la plataforma Labview 2013, esto es gracias a que se dispone del kit de desarrollo del instrumento de medida, y del paquete LIFA. El objetivo global del proyecto es realizar la caracterización de luminarias LED, de forma que se obtengan medidas suficientes de la distribución de intensidad luminosa. Los datos se recogerán en un archivo fotométrico específico, siguiendo la normativa IESNA 2002 sobre formato de archivos fotométricos, que posteriormente será utilizado en la simulación y estudio de instalaciones reales de la luminaria. El sistema propuesto en este proyecto, es un sistema basado en fotometría tipo B, utilizando coordenadas VH, desarrollando un algoritmo de medida que la luminaria describa un ángulo de 180º en ambos ejes, con una resolución de 5º para el eje Vertical y 22.5º para el eje Horizontal, almacenando los datos en un array que será escrito en el formato exigido por la normativa. Una vez obtenidos los datos con el instrumento desarrollado, el fichero generado por la medida, es simulado con el software DIALux, obteniendo unas medidas de iluminación en la simulación que serán comparadas con las medidas reales, intentando reproducir en la simulación las condiciones reales de medida. ABSTRACT. The project involves the development of software for controlling the measurement of light intensity distribution in LEDs. In the course of the project theoretical foundations on basic photometry, of which the basic conditions for such action are extracted will be presented. Besides a brief description of the hardware used in the development of the machine, which is based on a Mega Arduino plate 2560 is made, that through the package Labview "LIFA" (Interface For Arduino Labview "), it is possible to use as data acquisition card by which to handle both sensors and actuators for control tasks. The instrument used in this project is the BTS256 of GigaHerzt-Optik house, which is available a development kit in both C ++ language as LabView, making it possible to program based on this software applications for any kind of adaptation to project needs. The software is developed in Labview 2013 platform, this is thanks to the availability of the SDK of the measuring instrument and the LIFA package. The overall objective of the project is the characterization of LED lights, so that sufficient measures the light intensity distribution are obtained. Data will be collected on a specific photometric file, following the rules IESNA 2002 on photometric format files, which will then be used in the simulation and study of actual installations of the luminaire. The proposed in this project is a system based on photometry type B system using VH coordinates, developing an algorithm as the fixture describe an angle of 180 ° in both axes, with a resolution of 5 ° to the vertical axis and 22.5º for the Horizontal axis, storing data in an array to be written in the format required by the regulations. After obtaining the data with the instrument developed, the file generated by the measure, is simulated with DIALux software, obtaining measures of lighting in the simulation will be compared with the actual measurements, trying to play in the simulation the actual measurement conditions .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este Proyecto Fin de Grado se ha realizado un estudio de cómo generar, a partir de modelos de flujo de datos en RVC-CAL (Reconfigurable Video Coding – CAL Actor Language), modelos VHDL (Versatile Hardware Description Language) mediante Vivado HLS (Vivado High Level Synthesis), incluida en las herramientas disponibles en Vivado de Xilinx. Una vez conseguido el modelo VHDL resultante, la intención es que mediante las herramientas de Xilinx se programe en una FPGA (Field Programmable Gate Array) o el dispositivo Zynq también desarrollado por Xilinx. RVC-CAL es un lenguaje de flujo de datos que describe la funcionalidad de bloques funcionales, denominados actores. Las funcionalidades que desarrolla un actor se definen como acciones, las cuales pueden ser diferentes en un mismo actor. Los actores pueden comunicarse entre sí y formar una red de actores o network. Con Vivado HLS podemos obtener un diseño VHDL a partir de un modelo en lenguaje C. Por lo que la generación de modelos en VHDL a partir de otros en RVC-CAL, requiere una fase previa en la que los modelos en RVC-CAL serán compilados para conseguir su equivalente en lenguaje C. El compilador ORCC (Open RVC-CAL Compiler) es la herramienta que nos permite lograr diseños en lenguaje C partiendo de modelos en RVC-CAL. ORCC no crea directamente el código ejecutable, sino que genera un código fuente disponible para ser compilado por otra herramienta, en el caso de este proyecto, el compilador GCC (Gnu C Compiler) de Linux. En resumen en este proyecto nos encontramos con tres puntos de estudio bien diferenciados, los cuales son: 1. Partimos de modelos de flujo de datos en RVC-CAL, los cuales son compilados por ORCC para alcanzar su traducción en lenguaje C. 2. Una vez conseguidos los diseños equivalentes en lenguaje C, son sintetizados en Vivado HLS para conseguir los modelos en VHDL. 3. Los modelos VHDL resultantes serian manipulados por las herramientas de Xilinx para producir el bitstream que sea programado en una FPGA o en el dispositivo Zynq. En el estudio del segundo punto, nos encontramos con una serie de elementos conflictivos que afectan a la síntesis en Vivado HLS de los diseños en lenguaje C generados por ORCC. Estos elementos están relacionados con la manera que se encuentra estructurada la especificación en C generada por ORCC y que Vivado HLS no puede soportar en determinados momentos de la síntesis. De esta manera se ha propuesto una transformación “manual” de los diseños generados por ORCC que afecto lo menos posible a los modelos originales para poder realizar la síntesis con Vivado HLS y crear el fichero VHDL correcto. De esta forma este documento se estructura siguiendo el modelo de un trabajo de investigación. En primer lugar, se exponen las motivaciones y objetivos que apoyan y se esperan lograr en este trabajo. Seguidamente, se pone de manifiesto un análisis del estado del arte de los elementos necesarios para el desarrollo del mismo, proporcionando los conceptos básicos para la correcta comprensión y estudio del documento. Se realiza una descripción de los lenguajes RVC-CAL y VHDL, además de una introducción de las herramientas ORCC y Vivado, analizando las bondades y características principales de ambas. Una vez conocido el comportamiento de ambas herramientas, se describen las soluciones desarrolladas en nuestro estudio de la síntesis de modelos en RVC-CAL, poniéndose de manifiesto los puntos conflictivos anteriormente señalados que Vivado HLS no puede soportar en la síntesis de los diseños en lenguaje C generados por el compilador ORCC. A continuación se presentan las soluciones propuestas a estos errores acontecidos durante la síntesis, con las cuales se pretende alcanzar una especificación en C más óptima para una correcta síntesis en Vivado HLS y alcanzar de esta forma los modelos VHDL adecuados. Por último, como resultado final de este trabajo se extraen un conjunto de conclusiones sobre todos los análisis y desarrollos acontecidos en el mismo. Al mismo tiempo se proponen una serie de líneas futuras de trabajo con las que se podría continuar el estudio y completar la investigación desarrollada en este documento. ABSTRACT. In this Project it has made a study of how to generate, from data flow models in RVC-CAL (Reconfigurable Video Coding - Actor CAL Language), VHDL models (Versatile Hardware Description Language) by Vivado HLS (Vivado High Level Synthesis), included in the tools available in Vivado of Xilinx. Once achieved the resulting VHDL model, the intention is that by the Xilinx tools programmed in FPGA or Zynq device also developed by Xilinx. RVC-CAL is a dataflow language that describes the functionality of functional blocks, called actors. The functionalities developed by an actor are defined as actions, which may be different in the same actor. Actors can communicate with each other and form a network of actors. With Vivado HLS we can get a VHDL design from a model in C. So the generation of models in VHDL from others in RVC-CAL requires a preliminary phase in which the models RVC-CAL will be compiled to get its equivalent in C. The compiler ORCC (Open RVC-CAL Compiler) is the tool that allows us to achieve designs in C language models based on RVC-CAL. ORCC not directly create the executable code but generates an available source code to be compiled by another tool, in the case of this project, the GCC compiler (GNU C Compiler) of Linux. In short, in this project we find three well-defined points of study, which are: 1. We start from data flow models in RVC-CAL, which are compiled by ORCC to achieve its translation in C. 2. Once you realize the equivalent designs in C, they are synthesized in Vivado HLS for VHDL models. 3. The resulting models VHDL would be manipulated by Xilinx tools to produce the bitstream that is programmed into an FPGA or Zynq device. In the study of the second point, we find a number of conflicting elements that affect the synthesis Vivado HLS designs in C generated by ORCC. These elements are related to the way it is structured specification in C generated ORCC and Vivado HLS cannot hold at certain times of the synthesis. Thus it has proposed a "manual" transformation of designs generated by ORCC that affected as little as possible to the original in order to perform the synthesis Vivado HLS and create the correct file VHDL models. Thus this document is structured along the lines of a research. First, the motivations and objectives that support and hope to reach in this work are presented. Then it shows an analysis the state of the art of the elements necessary for its development, providing the basics for a correct understanding and study of the document. A description of the RVC-CAL and VHDL languages is made, in addition an introduction of the ORCC and Vivado tools, analyzing the advantages and main features of both. Once you know the behavior of both tools, the solutions developed in our study of the synthesis of RVC-CAL models, introducing the conflicting points mentioned above are described that Vivado HLS cannot stand in the synthesis of design in C language generated by ORCC compiler. Below the proposed solutions to these errors occurred during synthesis, with which it is intended to achieve optimum C specification for proper synthesis Vivado HLS and thus create the appropriate VHDL models are presented. Finally, as the end result of this work a set of conclusions on all analyzes and developments occurred in the same are removed. At the same time a series of future lines of work which could continue to study and complete the research developed in this document are proposed.