54 resultados para Los Alamos Scientific Laboratory. Theoretical Division.


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta tesis se centra en la identificación y análisis de los factores que pueden favorecer o actuar como barreras del éxito de la implementación de la innovación y las relaciones entre sí, desde el enfoque de la interface marketing-ventas. El trabajo empírico se enmarca en el vacío de investigación existente en el campo del proceso de lanzamiento de nuevos productos en los mercados donde operan subsidiarias de empresas multinacionales de consumo masivo (FMCG). Las empresas FMCG son altamente dependientes de la innovación como proceso clave determinante del crecimiento competitivo de mediano y largo plazo. En un contexto de acortamiento del ciclo de vida de los productos, como resultado del desarrollo tecnológico y científico que impactan en el comportamiento de los consumidores, las empresas invierten un mayor nivel de recursos en el desarrollo de nuevos productos, reingeniería y programas de innovación (Mundra, Gulati y Gupta, 2013). Sin embargo, a pesar del aumento en la inversión, las tasas de éxito de la innovación reportadas son inferiores al 25% (Evanschitzky, Eisend, Calantone y Jiang, 2012). Aumentar las tasas de éxito de los proyectos de innovación es reconocida en la literatura como un elemento clave para la supervivencia y competitividad de las empresas, para ser superiores a su competencia y desarrollar nuevos modelos de negocios. A pesar de la existencia de estudios que intentan comprender el proceso de lanzamiento de nuevos productos, no se ha identificado un claro prototipo de gestión de la innovación (Gupta et al, 2007). Profundizando en los factores de éxito, los autores Keupp, Palmié y Gassman (2012) reconocen que la innovación exitosa no depende solamente de la estrategia de selección de los proyectos de innovación, sino también la forma en que los mismos son implementados (Klein and Sorra, 1996; Repenning, 2002; Keupp, Palmié y Gassmann, 2012). Al analizar la implementación de los proyectos de lanzamiento de nuevos productos al mercado, en empresas FMCG, dicho proceso es responsabilidad principalmente de las funciones de marketing y ventas a través de la comunicación con los consumidores y los clientes respectivamente (Ernst, Hoyer y Rubsaamen, 2010). Es decir que el éxito en la implementación de la innovación requiere la gestión efectiva de la relación inter-funcional entre marketing y ventas (Ernst, Hoyer y Rubsaamen, 2010; Hughes, Le Bon y Malshe, 2012). A pesar de la importancia de la integración entre marketing y ventas en la conceptualización e implementación de la innovación, este tema no ha sido estudiado en profundidad (Hughes, Le Bon y Malshe, 2012; Keupp, Palmié y Gassmann, 2012). En las empresas multinacionales, está demostrado que el desempeño de las subsidiarias determinan el éxito competitivo de la empresa a nivel global. El desafío de dichas subsidiarias es conjugar el desarrollo global de innovación y comunicación con las características locales de comportamiento del consumidor y el mercado. Por lo tanto, esta investigación empírica responde a la pregunta académica y de gestión acerca de cómo mejorar las tasas de éxito de lanzamiento de nuevos productos al mercado en subsidiarias de empresas de consumo masivo, desde la perspectiva de la relación entre marketing y ventas. En particular analiza cómo afectan la formalización de los procesos y los mecanismos de comunicación a la confianza interpersonal y a la efectividad de la interface marketing-ventas y dichos factores a su vez sobre la planificación integrada de la implementación de la innovación. La determinación de los factores o ítems que conforman cada uno de los constructos del proceso de ejecución de la innovación, se llevó a cabo a partir de una revisión exhaustiva del estado del arte de la literatura sobre las interfaces funcionales y el proceso de innovación. Posteriormente, los ítems seleccionados (más de 50 en total) fueron validados por referentes de marketing y ventas de Argentina y Uruguay a través de entrevistas en profundidad. A partir de los factores identificados se construyeron dos modelos teóricos: • (1) relativo a la influencia de las dimensiones de confianza interpersonal sobre la efectividad de las uniones inter-funcionales y como los mecanismos organizacionales, tales como la frecuencia y la calidad de la comunicación entre las áreas, afectan la confianza y la relación entre ellas; • (2) relativo a la dimensión planificación integrada de la implementación de la innovación, ya que durante el lanzamiento de nuevos productos al mercado, marketing y ventas utilizan procesos formales que facilitan la comunicación frecuente y efectiva, desarrollando confianza inter-personal que no solamente afecta la efectividad de su relación sino también el desarrollo de planes integrados entre ambas áreas. El estudio fue llevado a cabo en una empresa multinacional de consumo masivo que integra la lista Global 500 (Fortune, 2015), presente en todo el mundo con más de 25 marcas participantes en más de 15 categorías, implementando 150 proyectos de innovación en el último año. El grupo de subsidiarias en estudio fue reconocido a nivel mundial por su desempeño en crecimiento competitivo y su alta contribución al crecimiento total. El modelo analizado en esta tesis fue expandido al resto de América Latina, tratándose entonces de un caso ejemplar que representa una práctica de excelencia en la implementación de la innovación en subsidiarias de una empresa multinacional. La recolección de los datos fue llevado a cabo a través de un cuestionario estructurado y confidencial, enviado a la base de datos de todo el universo de directores y gerentes de marketing y ventas. El nivel de respuesta fue muy elevado (70%), logrando 152 casos válidos. El análisis de datos comprendió el análisis descriptivo de los mismos, estimación de fiabilidad y análisis factorial exploratorio a través del software SPSS v.20. El análisis factorial confirmatorio y el análisis de senderos para examinar las relaciones entre los factores se estudiaron mediante el software R (Package 2.15.1., R Core Team, 2012) (Fox, 2006). Finalmente se llevaron a cabo entrevistas en profundidad a gerentes de marketing y ventas de cada uno de los seis países con el fin de profundizar en los constructos y sus relaciones. Los resultados de los modelos demuestran que la frecuencia de comunicación impacta positivamente en la calidad de la misma, que a su vez afecta directamente la relación entre marketing y ventas. Adicionalmente, la calidad de la comunicación impacta sobre la confianza cognitiva, que a su vez se relaciona no solamente con la confianza afectiva sino también con la relación entre ambas áreas. Esto significa que para mejorar la implementación de la innovación, los gerentes deberían orientarse a reforzar la relación entre marketing y ventas facilitando la construcción de confianza interpersonal primero cognitiva y luego afectiva, incrementando la frecuencia de la comunicación que alimenta la calidad de la comunicación entre ambas áreas. A través del segundo modelo se demuestra que durante el lanzamiento de nuevos productos al mercado, marketing y ventas necesitan emplear procesos formales que faciliten la comunicación frecuente y efectiva. De esta forma se contrarresta el efecto negativo de la formalización sobre la planificación integrada entre ambas áreas. Adicionalmente, los gerentes de ambos departamentos deberían promover la construcción de confianza interpersonal, no solamente para mejorar la efectividad de la relación, sino también para desarrollar planes integrados de implementación de nuevos productos. Finalmente, se valida que la frecuencia de la comunicación, la confianza afectiva y la relación marketing-ventas, se relacionan positivamente con la planificación integrada en la implementación de la innovación. El estudio contribuye a la comprensión de los factores que las empresas pueden emplear para mejorar la relación inter-funcional entre marketing y ventas y la implementación de la innovación en empresas de consumo masivo. El aporte de esta investigación puede ser valorado de dos maneras, los aportes a la gestión y a la academia. Desde el punto de vista empresarial, provee a los líderes al frente de empresas de consumo masivo, del conocimiento sobre los factores que afectan la implementación de la innovación y en definitiva el éxito del negocio a mediano y largo plazo. Desde el punto de vista académico aporta al conocimiento del proceso de implementación de la innovación y en la efectividad de la interface marketing y ventas en un caso de buenas prácticas en el mercado de consumo masivo. A su vez incorpora por primera vez un estudio empírico en geografías emergentes capaces de recuperar el camino de crecimiento posterior a una profunda crisis económica a través de la exitosa implementación de la innovación en sus mercados. ABSTRACT This thesis is focused on the identification, analysis and relationship study of factors which may benefit or hinder the successful deployment of innovation, from a marketing-sales interface perspective. Considering the non-existent investigation dedicated to the study of new products launches into markets in which Fast Moving Consumer Goods (FMCG) companies’ subsidiaries operate, it is that this investigation has been carried out. FMCG companies rely on innovation as their key process for a competitive growth on a medium and long term basis. Nowadays, the life-cycle of products is getting shorter as a result of new technological and scientific development, having impact on consumer behavior, and therefore companies are forced to dedicating more resources to the development of new products, reengineering and innovation programs (Mundra, Gulati and Gupta, 2013). However, in spite of the investment increase, the innovation success rates have been reported to be lower than 25% (Evanschitzky, Eisend, Calantone y Jiang, 2012). Increasing success rates on innovation processes has been considered as a key element on the survival and competitiveness of companies, outperforming competitors and developing new business models. Despite new studies which try to comprehend the process of new products launch, a prototype of innovation management has not yet been identified (Gupta et al, 2007). Emphasizing on success factors, authors Keupp, Palmié and Gassman (2012) recognize that successful innovation does not solely depend on innovation processes’ selection strategy, but it is also based on the way in which these are implemented (Klein and Sorra, 1996; Repenning, 2002; Keupp, Palmié y Gassmann, 2012). While analyzing the implementation of projects for new products releases on massive consumption companies, the two departments in charge of taking this forward are marketing and sales, by focusing on communication strategies with consumers and clients respectively (Ernst, Hoyer y Rubsaamen, 2010). This means that having success on innovation implementation requires an effective management of inter-functional relationship among marketing and sales (Ernst, Hoyer y Rubsaamen, 2010; Hughes, Le Bon y Malshe, 2012). In spite of the importance on the integration between marketing and sales on the conceptualization and implementation of innovation, this subject has not been studied in depth (Hughes, Le Bon y Malshe, 2012; Keupp, Palmié y Gassmann, 2012). In multinational companies, previous research has confirmed that the performance of their subsidiaries determine the competitive success of the company on a global scale. The challenge of said subsidiaries is to conjugate the global innovation development and communication with the local consumer and market behavior. Therefore, this empirical study aims to respond to the academic and management question of how to improve the success rates of new product launches into MNE subsidiary’ markets, from a marketing-sales relationship perspective. Particularly, this investigation analyses how the formalization of products and communication mechanisms affect interpersonal trust and marketing-sales interface effectiveness and also on how these factors affect the overall planning of the implementation of innovation. The determination of which factors build the hypothesis of the innovation execution process was taken forward through an extensive research on the extant literature on functional interfaces and innovation processes. More than 50 items were selected which were in turn validated by marketing and sales referents on Uruguay and Argentina through in depth interviews. Based on the identified factors, two theoretical models were proposed: (1) Relative to the influence that interpersonal trust dimensions have on inter functional linkages effectiveness and how organizational mechanisms such as frequency and quality of communication between departments affect trust and their relationship. (2) Relative to the integrated planning and innovation implementation dimensions. Marketing and sales department use formal process thus allowing inter-personal trust, which affects positively their relationship and also enables the development of integrated planning between them. The study was performed within a massive consumption company which is part of the “Global 500” (Fortune, 2015), with subsidiaries all over the world and more than 25 participant brands in 15 categories, having implemented over 150 innovation projects in the year under study. The analyzed subsidiary group has been awarded worldwide for their performance in competitive growth and their high contribution to the total growth. The model being analyzed in this thesis was implemented throughout Latin America, representing a remarkable case of innovation implementation excellence for subsidiaries of multinational companies. Data recollection was carried out through a structured and confidential questionnaire, sent to the universe of marketing-sales directors and managers’ database available with a high level of responsiveness of 70%, resulting in 152 valid cases. Data exploration involved a descriptive analysis, followed by a reliability estimation and an exploratory factorial analysis carried out through SPSS v.20. Confirmatory factorial analysis and path analysis (to examine relations between the different study factors) were studied using “R” software (Package 2.15.1., R Core Team, 2012) (Fox, 2006). Finally, in depth interviews were carried out to several marketing and sales managers in each of the six countries so as to further confirm the hypothesis and their relations. The models results prove that communication frequency has a positive impact on the quality of the same, which in turn has direct effects on the marketing-sales relations. Additionally, communication quality has an impact on the cognitive trust, which also relates not only to affective trust, but also to the relation between both areas. This means that in order to improve the implementation of innovation, managers should strive to enforce marketing-sales relations, facilitating the interpersonal trust construction (firstly cognitive, followed by affective trust), increasing the communication frequency, and therefore nurturing the communication quality among both areas. Through the second model, the results confirm the importance of creating effective relationships between sales and marketing to facilitate planning integrated new product implementations. While formalized new product development processes provide opportunities for sales and marketing to communicate, this does not directly influence the planning of integrated new product implementations. By using these formal opportunities to communicate to create information quality, it is possible to improve sales and marketing’s ability to integrate information during the planning process. Further, communication quality creates inter-personal trust in the other party’s competences (cognitive-based trust), leading to affect-based trust. Affect-based inter-personal trust, not only to improve the overall effectiveness of the sales and marketing relationship, but also helps in planning integrated new product implementations. This study contributes to the understanding of factors which enterprises can use to improve the inter-functional relations between marketing and sales, and the implementation of innovation in FMCG companies. The contribution of this investigation can be measured in two ways: enrichment of management and contribution to the academic area. From a business perspective, it provides massive consumption businesses leaders with knowledge on which factors affect innovation implementation, which results on mid and long-term success for the company. From an academic point of view, it provides knowledge on a prototype of successful innovation implementation management based on the marketing-sales interface effectiveness through a case study in the FMCG consumption market. Last but not least, it incorporates for the first time an empiric study on emerging geographies capable of recovery post a deep economic crisis through successful innovation implementation on their markets.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Una Red de Procesadores Evolutivos o NEP (por sus siglas en ingles), es un modelo computacional inspirado por el modelo evolutivo de las celulas, específicamente por las reglas de multiplicación de las mismas. Esta inspiración hace que el modelo sea una abstracción sintactica de la manipulation de information de las celulas. En particu¬lar, una NEP define una maquina de cómputo teorica capaz de resolver problemas NP completos de manera eficiente en tóerminos de tiempo. En la praóctica, se espera que las NEP simuladas en móaquinas computacionales convencionales puedan resolver prob¬lemas reales complejos (que requieran ser altamente escalables) a cambio de una alta complejidad espacial. En el modelo NEP, las cóelulas estóan representadas por palabras que codifican sus secuencias de ADN. Informalmente, en cualquier momento de cómputo del sistema, su estado evolutivo se describe como un coleccion de palabras, donde cada una de ellas representa una celula. Estos momentos fijos de evolucion se denominan configuraciones. De manera similar al modelo biologico, las palabras (celulas) mutan y se dividen en base a bio-operaciones sencillas, pero solo aquellas palabras aptas (como ocurre de forma parecida en proceso de selection natural) seran conservadas para la siguiente configuracióon. Una NEP como herramienta de computation, define una arquitectura paralela y distribuida de procesamiento simbolico, en otras palabras, una red de procesadores de lenguajes. Desde el momento en que el modelo fue propuesto a la comunidad científica en el año 2001, múltiples variantes se han desarrollado y sus propiedades respecto a la completitud computacional, eficiencia y universalidad han sido ampliamente estudiadas y demostradas. En la actualidad, por tanto, podemos considerar que el modelo teórico NEP se encuentra en el estadio de la madurez. La motivación principal de este Proyecto de Fin de Grado, es proponer una aproxi-mación práctica que permita dar un salto del modelo teórico NEP a una implantación real que permita su ejecucion en plataformas computacionales de alto rendimiento, con el fin de solucionar problemas complejos que demanda la sociedad actual. Hasta el momento, las herramientas desarrolladas para la simulation del modelo NEP, si bien correctas y con resultados satisfactorios, normalmente estón atadas a su entorno de ejecucion, ya sea el uso de hardware específico o implementaciones particulares de un problema. En este contexto, el propósito fundamental de este trabajo es el desarrollo de Nepfix, una herramienta generica y extensible para la ejecucion de cualquier algo¬ritmo de un modelo NEP (o alguna de sus variantes), ya sea de forma local, como una aplicación tradicional, o distribuida utilizando los servicios de la nube. Nepfix es una aplicacion software desarrollada durante 7 meses y que actualmente se encuentra en su segunda iteration, una vez abandonada la fase de prototipo. Nepfix ha sido disenada como una aplicacion modular escrita en Java 8 y autocontenida, es decir, no requiere de un entorno de ejecucion específico (cualquier maquina virtual de Java es un contenedor vólido). Nepfix contiene dos componentes o móodulos. El primer móodulo corresponde a la ejecución de una NEP y es por lo tanto, el simulador. Para su desarrollo, se ha tenido en cuenta el estado actual del modelo, es decir, las definiciones de los procesadores y filtros mas comunes que conforman la familia del modelo NEP. Adicionalmente, este componente ofrece flexibilidad en la ejecucion, pudiendo ampliar las capacidades del simulador sin modificar Nepfix, usando para ello un lenguaje de scripting. Dentro del desarrollo de este componente, tambióen se ha definido un estóandar de representacióon del modelo NEP basado en el formato JSON y se propone una forma de representation y codificación de las palabras, necesaria para la comunicación entre servidores. Adicional-mente, una característica importante de este componente, es que se puede considerar una aplicacion aislada y por tanto, la estrategia de distribution y ejecución son total-mente independientes. El segundo moódulo, corresponde a la distribucióon de Nepfix en la nube. Este de-sarrollo es el resultado de un proceso de i+D, que tiene una componente científica considerable. Vale la pena resaltar el desarrollo de este modulo no solo por los resul-tados prócticos esperados, sino por el proceso de investigation que se se debe abordar con esta nueva perspectiva para la ejecución de sistemas de computación natural. La principal característica de las aplicaciones que se ejecutan en la nube es que son gestionadas por la plataforma y normalmente se encapsulan en un contenedor. En el caso de Nepfix, este contenedor es una aplicacion Spring que utiliza el protocolo HTTP o AMQP para comunicarse con el resto de instancias. Como valor añadido, Nepfix aborda dos perspectivas de implementation distintas (que han sido desarrolladas en dos iteraciones diferentes) del modelo de distribution y ejecucion, que tienen un impacto muy significativo en las capacidades y restricciones del simulador. En concreto, la primera iteration utiliza un modelo de ejecucion asincrono. En esta perspectiva asincrona, los componentes de la red NEP (procesadores y filtros) son considerados como elementos reactivos a la necesidad de procesar una palabra. Esta implementation es una optimization de una topologia comun en el modelo NEP que permite utilizar herramientas de la nube para lograr un escalado transparente (en lo ref¬erente al balance de carga entre procesadores) pero produce efectos no deseados como indeterminacion en el orden de los resultados o imposibilidad de distribuir eficiente-mente redes fuertemente interconectadas. Por otro lado, la segunda iteration corresponde al modelo de ejecucion sincrono. Los elementos de una red NEP siguen un ciclo inicio-computo-sincronizacion hasta que el problema se ha resuelto. Esta perspectiva sincrona representa fielmente al modelo teórico NEP pero el proceso de sincronizacion es costoso y requiere de infraestructura adicional. En concreto, se requiere un servidor de colas de mensajes RabbitMQ. Sin embargo, en esta perspectiva los beneficios para problemas suficientemente grandes superan a los inconvenientes, ya que la distribuciín es inmediata (no hay restricciones), aunque el proceso de escalado no es trivial. En definitiva, el concepto de Nepfix como marco computacional se puede considerar satisfactorio: la tecnología es viable y los primeros resultados confirman que las carac-terísticas que se buscaban originalmente se han conseguido. Muchos frentes quedan abiertos para futuras investigaciones. En este documento se proponen algunas aproxi-maciones a la solucion de los problemas identificados como la recuperacion de errores y la division dinamica de una NEP en diferentes subdominios. Por otra parte, otros prob-lemas, lejos del alcance de este proyecto, quedan abiertos a un futuro desarrollo como por ejemplo, la estandarización de la representación de las palabras y optimizaciones en la ejecucion del modelo síncrono. Finalmente, algunos resultados preliminares de este Proyecto de Fin de Grado han sido presentados recientemente en formato de artículo científico en la "International Work-Conference on Artificial Neural Networks (IWANN)-2015" y publicados en "Ad-vances in Computational Intelligence" volumen 9094 de "Lecture Notes in Computer Science" de Springer International Publishing. Lo anterior, es una confirmation de que este trabajo mas que un Proyecto de Fin de Grado, es solo el inicio de un trabajo que puede tener mayor repercusion en la comunidad científica. Abstract Network of Evolutionary Processors -NEP is a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. NEP defines theoretical computing devices able to solve NP complete problems in an efficient manner. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells are accepted as surviving (correct) ones which are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing, in other words, a network of language processors. Since the date when NEP was pro¬posed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP). During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated. Therefore, we can say that the NEP model has reached its maturity. The main motivation for this End of Grade project (EOG project in short) is to propose a practical approximation that allows to close the gap between theoretical NEP model and a practical implementation in high performing computational platforms in order to solve some of high the high complexity problems society requires today. Up until now tools developed to simulate NEPs, while correct and successful, are usu¬ally tightly coupled to the execution environment, using specific software frameworks (Hadoop) or direct hardware usage (GPUs). Within this context the main purpose of this work is the development of Nepfix, a generic and extensible tool that aims to execute algorithms based on NEP model and compatible variants in a local way, similar to a traditional application or in a distributed cloud environment. Nepfix as an application was developed during a 7 month cycle and is undergoing its second iteration once the prototype period was abandoned. Nepfix is designed as a modular self-contained application written in Java 8, that is, no additional external dependencies are required and it does not rely on an specific execution environment, any JVM is a valid container. Nepfix is made of two components or modules. The first module corresponds to the NEP execution and therefore simulation. During the development the current state of the theoretical model was used as a reference including most common filters and processors. Additionally extensibility is provided by the use of Python as a scripting language to run custom logic. Along with the simulation a definition language for NEP has been defined based on JSON as well as a mechanisms to represent words and their possible manipulations. NEP simulator is isolated from distribution and as mentioned before different applications that include it as a dependency are possible, the distribution of NEPs is an example of this. The second module corresponds to executing Nepfix in the cloud. The development carried a heavy R&D process since this front was not explored by other research groups until now. It's important to point out that the development of this module is not focused on results at this point in time, instead we focus on feasibility and discovery of this new perspective to execute natural computing systems and NEPs specifically. The main properties of cloud applications is that they are managed by the platform and are encapsulated in a container. For Nepfix a Spring application becomes the container and the HTTP or AMQP protocols are used for communication with the rest of the instances. Different execution perspectives were studied, namely asynchronous and synchronous models were developed for solving different kind of problems using NEPs. Different limitations and restrictions manifest in both models and are explored in detail in the respective chapters. In conclusion we can consider that Nepfix as a computational framework is suc-cessful: Cloud technology is ready for the challenge and the first results reassure that the properties Nepfix project pursued were met. Many investigation branches are left open for future investigations. In this EOG implementation guidelines are proposed for some of them like error recovery or dynamic NEP splitting. On the other hand other interesting problems that were not in the scope of this project were identified during development like word representation standardization or NEP model optimizations. As a confirmation that the results of this work can be useful to the scientific com-munity a preliminary version of this project was published in The International Work- Conference on Artificial Neural Networks (IWANN) in May 2015. Development has not stopped since that point and while Nepfix in it's current state can not be consid¬ered a final product the most relevant ideas, possible problems and solutions that were produced during the seven months development cycle are worthy to be gathered and presented giving a meaning to this EOG work.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El trabajo de investigación que presentamos tiene como principal objetivo, la recopilación, el registro, el análisis y la reflexión sobre una época, tan trascendental como poco estudiada desde el ámbito arquitectónico, como es el período comprendido entre las dos normas de mayor relevancia en relación a la protección del Patrimonio Histórico Español del último siglo. Nos referimos a la Ley sobre Defensa, Conservación y Acrecentamiento del Patrimonio Histórico Nacional de 13 de mayo de 1933 y la Ley 13/1985, de 25 de junio, del Patrimonio Histórico Español. A través de la investigación realizada, se pretende aportar una visión integral de esta etapa, desde el enfoque arquitectónico, fundamentando la misma en el desarrollo de pautas metodológicas, abordadas desde la recopilación exhaustiva del material bibliográfico y documental para su posterior análisis. A partir de esta fase inicial, se han identificado los nexos comunes entre los estudios existentes sobre el patrimonio monumental español previos a la Guerra Civil y las investigaciones dedicadas a la historia de las últimas décadas del siglo XX. De esta forma, se ha procurado trazar un “puente” documental, con el que trasponer virtualmente el vacío bibliográfico existente. Históricamente, la protección del patrimonio histórico edificado y urbano, ha preocupado y ocupado a multitud de profesionales que, desde disciplinas dispares, han emprendido la tarea ímproba de comprender y explicar cuáles han sido los avatares, históricos y legales, que han marcado su evolución. Tal preocupación ha generado una bibliografía ingente y diversa, desde la protección formal y precisa, sobre uno u otro material, pasando por el marco historiográfico de las tendencias conservacionistas y las teorías decimonónicas, las filigranas formadas por las cuantiosas normas promulgadas desde la Novísima Recopilación, hasta la incidencia del planeamiento urbano en la tutela del patrimonio, incluidas la trama de competencias y yuxtaposiciones administrativas. Documentos de toda índole y profundidad científica, que como mosaicos hispanomusulmanes, dibujan el panorama patrimonial en el que la criba de material resulta una tarea, en ocasiones, inextricable. El título de este documento, en sí mismo, circunscribe la materia que ha sido el objeto de análisis durante el proceso de investigación, el Patrimonio Arquitectónico Monumental. El eje o núcleo basal de estudio se sitúa en los bienes inmuebles, los edificados, que, a su vez, ostentan la declaración de Bien de Interés Cultural, y que, por ende, pertenecen al Patrimonio Histórico Español. La metodología de trabajo se ha desarrollado de forma concéntrica, desde aspectos generales de la protección del patrimonio monumental, como el marco legal que antecede a la promulgación de la Ley de 1933, y el estado previo de los bienes susceptibles de ser preservados. Reconocemos en el ámbito legislativo, el fundamento orgánico que regula y dirige la tutela del patrimonio histórico español y la acción conservadora, y que delimita el ámbito a partir del cual se condiciona el devenir de los bienes culturales. Del esquema de situación surgido del análisis previo, se han detectado los factores claves en la transición hacia la Ley de Patrimonio Histórico Español; la evolución conceptual del “Patrimonio”, como apreciación genérica, y el testimonio de este progreso a través de los valores históricos, artísticos y culturales. El presente documento de investigación, consta de una primera fase, correspondiente al Capítulo 1, que se ha desarrollado a partir, principalmente, de la ordenación jurídica que rige el Patrimonio Histórico Español, a través de leyes, decretos, órdenes y disposiciones anexas, complementado con el material bibliográfico dedicado a la revisión histórica del proceso legal de la protección del patrimonio histórico-artístico. Si bien no ha sido nuestro propósito realizar un estudio pormenorizado del volumen jurídico e histórico que precede a la Ley de 1933, y que da inicio al período de estudio de la presente investigación, sí lo ha sido centrarnos en la elaboración de un extracto de aquellos elementos de la doctrina de mayor relevancia y repercusión en la protección del patrimonio histórico-artístico y/o monumental español. A lo largo de este estudio hemos comprobado lo que algunos juristas ya habían planteado, acerca de la profunda dispersión, ramificación, y diversificación de esfuerzos, tanto en la legislación específica como en la urbanística. Esta disgregación se ha extendido al ámbito de las medidas de reconocimiento caracterizado por la elaboración de múltiples catálogos e inventarios, con desigual transcendencia, alcance y utilidad. El resultado ha sido una división de esfuerzos, desdibujando el objetivo y convirtiendo la acción del reconocimiento en múltiples empresas inconexas y de escasa trascendencia. Nuestra investigación avanza en el análisis de la protección del patrimonio, como concepto globalizador, con el desarrollo del Capítulo 2, en el que se incluye una serie de mecanismos directos e indirectos que, individualmente, suelen carecer de la fuerza efectiva que muchos de los monumentos o conjuntos monumentales requieren para sobrevivir al paso del tiempo y sus circunstancias. En primer lugar, en este segundo capítulo nos hemos centrado, específicamente, en el mecanismo regulado por la Ley del Patrimonio Histórico Español, y el régimen general de protección implementado a partir de su promulgación en 1985. En especial, consideraremos la declaración de Interés Cultural como grado máximo de protección y tutela de un bien, y su posterior inscripción en el Registro General correspondiente, dependiente del Ministerio de Educación, Cultura y Deporte. Este mecanismo representa el instrumento por antonomasia que condensa las facultades de tutela del Estado sobre un bien del que se considera poseedor y aglutinador de valores “culturales” —como cohesión de los valores históricos, artísticos, sociales, etc. — representativos de la idiosincrasia española, y sobre el cual no existen dudas sobre la necesidad de garantizar su permanencia a través de su conservación. En segunda instancia, hemos analizado el Planeamiento Urbanístico, como aglutinador de valores culturales contenidos en la ciudad y como contenedor de los efectos generados por el hombre a partir de su interacción con el medio en el que habita y se relaciona. En tercer término, hemos recopilado y estudiado la concepción de los catálogos, como noción genérica de protección. Desde hace siglos, este género ha estado definido como una herramienta capaz de intervenir en la protección del patrimonio histórico, aunque de una manera difícilmente cuantificable, mediante la identificación, enumeración y descripción de una tipología concreta de monumentos o grupos de ellos, contribuyendo al reconocimiento de los valores cualitativos contenidos en éstos. El tercer capítulo analiza el mecanismo directo de tutela que ejerce la Administración en el patrimonio monumental. La declaración de monumentalidad o de Bien de Interés Cultural y su inclusión en el Registro General de Protección. La protección teórica y la protección jurídica de un monumento, analizadas hasta el momento, resultan tan necesarias como pueriles si no van seguidas de su consumación. En el caso de este tipo de patrimonio monumental, toda acción que tenga como objeto resguardar los valores implícitos en un bien mueble o inmueble, y en su materia, implica el cumplimiento de la protección. Por último, el cuarto capítulo se convierte en el punto culminante, y por ende crucial, del proceso de protección del Patrimonio Cultural, el de la consumación de la intervención. La teoría, la crítica, la normativa y hasta las doctrinas más radicales en materia de protección del patrimonio cultural, carecen de sentido si no las suceden los hechos, la acción, en antítesis a la omisión o la desidia. De ello ha dado pruebas elocuentes la propia historia en multitud de ocasiones con la destrucción, por indolencia o desconocimiento, de importantes vestigios del patrimonio arquitectónico español. Por este motivo, y para ser consecuentes con nuestra tesis hemos recuperado, concentrado y analizado la documentación de obra de tres monumentos imprescindibles del patrimonio construido (la Catedral de Burgos, el Palacio-Castillo de la Aljafería en Zaragoza y la Muralla de Lugo). En ocasiones, al examinar retrospectivamente las intervenciones en monumentos de gran envergadura, física y cultural como catedrales o murallas, algunos investigadores han tenido la sospecha o prevención de que las actuaciones no han seguido un plan de actuación premeditado, sino que han sido el resultado de impulsos o arrebatos inconexos producto de la urgencia por remediar algún tipo de deterioro. En oposición a esto, y a través del estudio de las intervenciones llevadas a cabo en los tres monumentos mencionados, hemos podido corroborar que, a excepción de intervenciones de emergencia fruto de circunstancias puntuales, existe coherencia desde el proceso de análisis de situación de un bien a la designación de prioridades, que ha regido el proceso restaurador a lo largo de dos siglos. La evolución de las intervenciones realizadas en los monumentos analizados ha estado definida, además de por su complejidad, magnitud y singularidad constructiva, por el devenir de su estructura y su uso. En conclusión, la efectividad de la protección del patrimonio cultural español, radica en la concomitancia de múltiples aspectos, entre ellos: el cumplimiento acertado de las normas vigentes, específicas y accesorias; el conocimiento del bien y de sus valores históricos, artísticos, y culturales; su catalogación o inclusión en los inventarios correspondientes; el compromiso de los agentes e instituciones de los cuales depende; la planificación de las tareas necesarias que garanticen tanto la salvaguarda estructural como la conservación de sus valores; y la incorporación de un plan de seguimiento que permita detectar eventuales peligros que atenten contra su conservación. Pero, la situación óptima estaría dada por un sistema en el que estos mecanismos —regulaciones específicas y urbanísticas, Declaraciones de Bien de Interés Cultural, Catálogos e Inventarios, etc. — funcionaran, de forma parcial o total, como una maquinaria, donde cada pieza operara con independencia relativa, pero en sintonía con los demás engranajes. Hasta el momento, la realidad dista mucho de esta situación, convirtiendo esta convivencia en una utopía. Tanto los legisladores, como las autoridades y los técnicos involucrados, deben tener presente que, de ellos, de los parámetros asignados por la legislación, de la implementación de los instrumentos estipulados por ésta y de las decisiones tomadas por cada uno de los poderes directivos de los órganos competentes, dependerá el alcance y efectividad de la protección, ya que en cada vertiente existe, en mayor o menor medida, un porcentaje de interpretación y subjetividad. ABSTRACT The research that we present has as the main objective to collect, record, analyzed and reflection on a time, that was little studied from the architectural field. It is the period between the two laws of most relevance to the protection of Spanish Historical Heritage of the last century. We refer to the Law on the Protection and Conservation of National Heritage of 1933 and Law 16/1985 of Spanish Historical Heritage. Through this research, it aims to provide a comprehensive view of the stage from the architectural approach, basing it on the development of methodological guidelines. The investigation was initiated by the bibliography and documentary for further analysis. After this initial phase, we have identified the common links between existing studies on the Spanish architectural heritage prior to the Civil War and dedicated research into the history of the late twentieth century. Thus, we have tried to draw a documental bridge, with which virtually transpose the gap that has existed. Historically, professionals from diverse disciplines have been worried and busy of the protection of the built and urban heritage. They have undertaken the daunting task of understanding and explaining the historical and legal difficulties, which have marked its evolution. This concern has generated an enormous and diverse literature, from formal and precise protection, in the framework of conservation historiographical trends and nineteenth-century theories. Also, they have studied the impact of urban planning in the protection of heritage, including the competences and administrative juxtapositions. They have generated a lot of documents of all kinds and scientific depth. The title of this document, in itself, circumscribes the matter that has been analyzed during this research process, the Monumental Architectural Heritage. The basal studio is located in the historical buildings, which, in turn, hold the declaration of cultural interest, and thus belong to the Spanish Historical Heritage. The work methodology was developed concentrically from general aspects of the protection of monuments, such as the legal framework that predates the enactment of the 1933 Act, and the previous state of the monuments that should be preserved. We recognize in the legislative sphere, the organic base that regulates and directs the tutelage of Spanish heritage and conservative action. The situation scheme emerged from the previous analysis, and we detected the key factors in the transition to the Spanish Historical Heritage Act; the conceptual evolution of the Heritage as a generic assessment, and witness this progress through historical, artistic and cultural values. This research paper consists of a first phase, corresponding to Chapter 1, which has developed from the legal regulation governing the Spanish Historical Heritage, through laws, decrees, orders and related provisions, supplemented the bibliography dedicated to the historical review of the legal process of protecting historical and artistic heritage. While it was not our intention to conduct a detailed study of the legal and historical volume preceding the 1933 Act, and that started the study period of this investigation, yes he has been focusing on the production of an extract from those elements of the doctrine with greater relevance and impact on the protection of Spanish art-historical and / or architectural heritage. Throughout our study we have seen what some jurists had already raised, about the scattering, branching and diversification of efforts, both in specific law and in urban law. This disaggregation has been extended to the field of recognition measures characterized by the development of multiple catalogs and inventories, with varying significance, scope and usefulness. The result has been a division of efforts, blurring the objective and turning the action of the recognition in multiple attempts little consequence. Our research advances in the analysis of heritage protection, as globalization concept in the Chapter 2, which includes a number of direct and indirect mechanisms that individually, often lack the effective force that many of monuments have required to survive the test of time and circumstances. First, in this second chapter we focused specifically on the mechanism regulated by the Spanish Historical Heritage Act, and the general protection regime implemented since its enactment in 1985 . In particular, we consider the declaration of cultural interest as maximum protection and protection of cultural assets, and their subsequent entry in the relevant General Register under the Ministry of Education, Culture and Sports . This mechanism is the instrument par excellence that condenses the powers of state care about a cultural asset, and which represents the cohesion of the historical, artistic, social values , etc. Secondly, we analyzed the Urban Planning, as a unifying cultural value in the city and as a container for the effects caused by man from its interaction with the environment in which he lives and relates. Thirdly, we have collected and studied the origin of catalogs, as generic notion of protection. For centuries, this genre has been defined as a tool to intervene in the protection of historical heritage, although difficult to quantify, through the identification, enumeration and description of a particular typology of monuments, and that contributing to the recognition of qualitative values contained therein. The third chapter analyzes the direct mechanism of protection performed by the Administration in the monuments with the statement of Cultural asset and inclusion in the General Protection Register. The theoretical and legal protection of a monument is as necessary as puerile if they are not followed by intervention. For this type of architectural heritage, any action which has the aim to safeguard the values implicit in the cultural asset involves protection compliance. Finally, the fourth chapter becomes the highlight, because it treated of the end process of the cultural heritage protection, the consummation of the intervention. The theory, the criticism, the rules and even the radical doctrines on the protection of cultural heritage, are meaningless if they do not take place the facts, the action, in antithesis to the omission. The history of the architectural heritage has given eloquent proof by itself. A lot of vestiges have been lost, in many times, for the destruction, through indolence or unknowledge. For this reason, and to be consistent with our thesis, we have collected and analyzed the projects documentation of three monuments (the Burgos Cathedral, the Aljafería Palace-Castle in Zaragoza and the Wall of Lugo). Sometimes, some researchers have suspected that there had not been planning. They suspect that the projects have been the result of different emergency situations. In opposition of this, we confirm that, except for emergency interventions result of specific circumstances, there have been a process of analysis to conclude in the priorities designation, which has guided the restoration process over two centuries. The complexity, magnitude and constructive uniqueness have defined the evolution of intervention. In conclusion, the effectiveness of the protection of Spanish cultural heritage lies in the conjunction of many aspects, including: the successful implementation of existing, specific and ancillary standards; the knowledge of good and its historical, artistic and cultural values; the cataloging and inclusion in the relevant inventories; and the commitment of the actors and institutions on which it depends. These planning tasks are necessary to ensure both structural safeguards as conservation values; and the introduction of a monitoring plan to detect possible dangers that threaten its conservation. But, the optimal situation would be given by a system in which these urban-regulations and specific mechanisms, would work together like a machine, where each piece operated with relative independence, but in tune with the other gears. So far, the reality is far from this situation, turning this coexistence in a utopia. Both legislators and officials and technicians involved must be aware that the effectiveness and scope of protection depends on your insight and commitment.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Cuando se trata de Rem Koolhaas, su espejo no refleja una sola imagen sino múltiples, es un prisma poliédrico. Su espejo nos devuelve el Rem mediático, el intelectual, el conceptualizador, el constructor, el analista, el periodista, el actor... En el caso de esta investigación, fijamos el punto de mira en el Rem COMUNICADOR. “Rem a los dos lados del espejo” se enmarca en una investigación sobre los medios de comunicación de arquitectura, su reflejo en la producción arquitectónica y viceversa. Se trata de llegar a discernir si comunicación y producción arquitectónica colisionan y confluyen en el caso de grandes comunicadores como Rem Koolhaas, si el mensaje y el medio transmisor adquieren las mismas cualidades. Centrándose en la figura de Rem Koolhaas, la tesis aborda la evolución de su faceta comunicativa y las transformaciones sucesivas en el campo de la comunicación arquitectónica, en paralelo a su evolución conceptual a lo largo de su trayectoria. La investigación, por tanto, no se centra tanto en su componente teórica o en la práctica arquitectónica de OMA, sino en la exposición de su producción al mundo, especialmente a través de sus ensayos y libros. “Delirious New York” y “SMLXL” son un reflejo del momento conceptual en que se inscriben, y contienen mucha información sobre los referentes gráficos que irremediablemente han influido en su composición. Especialmente, la aparición de “SMLXL” supuso un revulsivo para el mundo de la comunicación arquitectónica, porque puso el foco sobre la importancia de dejar atrás un discurso narrativo linea y unifocal, para afrontar la comunicación barajando múltiples variables, y aproximaciones, en un proceso similar al desarrollo de un proyecto de arquitectura. Presenta un diseño muy novedoso y una edición extremadamente cuidada, que atiende a parámetros mucho más ambiciosos que los meramente narrativos. Profundiza en la necesidad de una temática global, planteando cuál es la aproximación más apropiada para cada uno de los proyectos que describe, transmitiendo al lector una percepción más allá de lo estrictamente visual, más próximo a lo sensorial. Además, su enorme repercusión a nivel internacional y el gran interés que despertó (no solamente entre los arquitectos, sino también entre diseñadores gráficos, publicistas, personas provenientes de todo tipo de tendencias artísticas y público en general), provocó la globalización del fenómeno de las publicaciones arquitectónicas y puso de manifiesto la importancia de la comunicación como una disciplina en sí misma, dentro de la producción arquitectónica en la era actual. A pesar de la importancia de “SMLXL” a todos los niveles, la presente tesis plantea que, donde realmente se culmina esa experiencia comunicativa, es en “Content”, al incluir nuevos parámetros relacionados con la fusión conceptual de continente y contenido. Es en esta publicación donde el objeto de la comunicación y la expresión de la misma se convierten en un único elemento, que se rige por leyes similares. En este caso, la ley fundamental es la aplicación hasta sus máximas consecuencias de la “cultura de la congestión”, tanto en el mensaje como en el medio, generando lo que hemos convenido en denominar “comunicación congestiva”. Esta concepción deviene en que necesariamente se materialice como un producto efímero, desechable, casi virtual, porque responde a las condiciones de un momento muy concreto y específico y fuera de ese contexto pierde su significación.. La “cultura de la congestión” empieza a surgir en los planteamientos de Koolhaas en la Architectural Association School of Architecture de Londres, bajo la tutela de Elia Zenghelis. Posteriormente se desarrolla en su manifiesto retroactivo sobre Manhattan, “Delirious New York”, donde declara la guerra abierta al urbanismo del movimiento moderno y afirma que la ciudad realmente contemporánea es aquella que es fruto de un desarrollo no planificado, hiperdensa y posible gracias a los avances tecnológicos de su era. Finalmente comienza a materializarse en la Diploma Unit 9 de la AA, donde entra como profesor en 1975, dejando una huella indeleble en las generaciones posteriores de arquitectos que pasaron dicha unidad. Rem Koolhaas es ante todo un intelectual y por ello, todo el constructo teórico sobre la metrópolis comienza a reflejarse en su obra a través de OMA desde el comienzo de su producción. Podemos decir a grandes rasgos que su carrera está marcada por dos hitos históricos fundamentales que determinan tres etapas diferenciadas en su producción. En sus primeros años de profesión, Koolhaas sigue fascinado por la metrópolis urbana y la aplicación del método paranoico crítico a su producción arquitectónica. Es un arquitecto profundamente surrealista. Entiende este método como una estrategia de conocimiento y aproximación al mundo que le rodea: “dejar salir el inconsciente pero sostenerlo con las muletas de la racionalidad”. Pero lo que en realidad le interesa es su aplicación a la gran escala, el “Bigness”, y por ello, participa en proyectos muy ambiciosos de los que surgen conceptos que, más allá de resultar premiados o no, han dejado una huella ideológica en el devenir de la arquitectura. Entre estos proyectos, cabe destacar su propuesta para el Parque de la Villette o la Très Grande Bibliotèque de París. Sus proyectos de esta época destilan una gran carga conceptual, que devienen en unos interiores sorprendentes pero una apariencia exterior sobria o incluso podríamos decir "povera", por el uso de materiales efímeros, poco habituales en la macro-arquitectura hasta ese momento. Súbitamente, en 1997, explotó el denominado “Efecto Bilbao”, de la mano de Frank Gehry (1). El Museo Guggenheim de Bilbao, con su espectacularidad, sus formas pregnantes e imposibles, impacta al mundo. Nace la era de la “Arquitectura del Espectáculo”; la transformación de la ciudad a través de ICONOS que actúen como nodos de atracción y concentración en torno a los cuales supuestamente se revitaliza la actividad económica, cultural y sociopolítica de la ciudad, como si a través de un único gesto se pudieran regenerar todos los tejidos internos de la urbe. Rem Koolhaas comprende rápidamente que la aproximación a la ciudad ha cambiado y, sobre todo, el mercado. En el mundo de la globalización, la única manera de llegar a materializar el “Bigness”, es encerrando sus ejercicios intelectuales en formas pregnantes, bellas, icónicas, espectaculares. Koolhaas encuentra su marca personal en la estética “Stealth”, proveniente de los aviones de combate facetados para evitar los radares, elaborados en los años 80. De esta época surgen proyectos como la Casa da Música de Oporto o la Biblioteca de Seattle; ambos edificios son iconos facetados, de belleza pregnante, que dejan una huella indeleble en la ciudad y provocan, al igual que el Guggenheim, un cierto efecto de recuperación y revitalización en el entorno en que se asientan, al menos de manera temporal. En cualquier caso, Koolhaas nunca abandona los ejercicios meramente teóricos, pero segrega su actividad en dos: OMA produce aquello que tiene vocación de ser construido y se rige por los parámetros del mercado global y AMO, la otra cara del espejo de Rem, aplica el pensamiento arquitectónico a campos no explorados, sin la dependencia de agentes externos, pudiendo permitirse ser un laboratorio puramente experimental. En este escenario, llega el 11 de septiembre de 2001 y el ataque a las Torres Gemelas de Nueva York tiene efectos devastadores a todos los niveles, significando, en un período de tiempo sorprendentemente corto, un cambio en el orden mundial. Rem Koolhaas da entonces un giro de 180 grados, dirige su mirada hacia China, donde entiende que sus aportaciones tienen un beneficio social más directo que en occidente. (2) Para presentar al mundo su nuevo cambio de rumbo y la creación del “Think Tank” AMO, plantea una gran exposición en la NeueGallerie de Berlín bajo el título de “Content”, experiencia paralela a la edición del libro con el mismo título, que inicialmente nace como “catálogo de la exposición, pero que internamente siempre se concibió como el documento más trascendente en el estudio desde “SMLXL”. Sin embargo, en muchos aspectos se trata de su opuesto: una publicación con formato revista, de tapa blanda, con paginado muy fino, formato de "folleto de supermercado" y contenido hiperdenso. Es un experimento efímero, fugaz, ligero, barato, de “usar y tirar”. De hecho, está fuera de stock, ya no se edita. Probablemente Rem Koolhaas desaprobaría que se hiciera una investigación que pusiera el foco sobre el mismo, porque diez años después de su publicación seguramente opine que su vigencia ha caducado. Sin embargo, muestra con una claridad meridiana el estado conceptual y vital de OMA en el momento de su publicación y representa, además un verdadero hito en la comunicación arquitectónica, un punto de no retorno, el máximo exponente de lo que hemos denominado “comunicación congestiva”. La presente tesis plantea que “Content” contiene la esencia de la mayor aportación de Rem Koolhaas al mundo de la arquitectura: la transformación profunda y definitiva de la comunicación arquitectónica mediante la convergencia del estado conceptual y la transmisión del mismo. Su legado arquitectónico y conceptual ha marcado a todas las generaciones posteriores de manera indeleble. Sus ensayos, sus teorías, sus proyectos y sus edificaciones ya pertenecen a la historia de la arquitectura, sin ninguna duda. Pero es su revisión del concepto de la comunicación en arquitectura lo que ha tenido y tendrá un reflejo inmediato en las generaciones futuras, no solamente en la comunicación sino en su arquitectura, a través de un intercambio biyectivo. El planteamiento a futuro sería determinar qué sucede tras “Content”, tras la hiperdensidad máxima, tras la cultura de la congestión visual; qué es lo que propone Koolhaas y qué se va a plantear también en el mundo de la comunicación arquitectónica. Para ello, estudiaremos en profundidad sus últimos proyectos relacionados con la comunicación, como su propuesta para la Biennale de Arquitectura de Venecia de 2014, su intensa investigación sobre el “Metabolismo” en “Project Japan: Metabolism Talks...”, o la dirección de sus últimos planteamientos territoriales. En los últimos tiempos Rem Koolhaas habla de “Preservación”, de “Sobriedad”, de “Esencialismo”, de “Performance”... El autor intelectual de la cultura de la congestión habla ahora de la “low density”...como no podía ser de otra manera en la otra cara del espejo. En definitiva, el color blanco como suma de todos los colores, todas las longitudes de onda del espectro visible recibidas al tiempo. ABSTRACT When talking about Rem Koolhaas, the mirror does not only reflect one but numerous images: it is nothing but a polyhedral prism. His mirror gives us the image of Rem the media celebrity, the intellectual, the conceptualizer, the builder, the analyst, the journalist, the actor... This research sets the spotlight on Rem the COMMUNICATOR. "Rem on both sides of the mirror" belongs to a research on architectural media, its influence on the architectural production and vice versa. It is aimed at getting to discern whether communication and architectural production collide and converge in the case of great communicators such as Rem Koolhaas, and whether the message and transmission media acquire the same features. Focusing on the figure of Rem Koolhaas, this thesis addresses the evolution of his communicative facet and the successive transformations in the field of architectural communication, parallel to the conceptual evolution he underwent throughout his career. Therefore, this research is not so much focused on his theoretical component or on the OMA’s architectural practice, but on the exhibition of his production to the world, especially through his essays and books. "Delirious New York" and "SMLXL" hold up a mirror to the conceptual moment they are part of, and contain a great deal of information about the graphic references that have inevitably influenced his work. Specially, the launch of "SMLXL" was a salutary shock for the architectural communication world, since it set the spotlight on the importance of leaving a linear and unifocal narrative behind in order to face communication considering multiple variables and approaches, based on a process similar to the development of an architectural project. It offers a very innovative design and an extremely careful editing, which deals with parameters much more ambitious than those merely narrative. It explores the need for a global subject and suggests the most appropriate approach for each of the projects described, giving the reader a closer insight to the sensory that goes beyond what’s strictly visual. In addition, its huge international impact and the great interest shown, not only by architects but also by graphic designers, publishers, people from all kinds of artistic trends and the general public, led to the globalisation of the architectural publications phenomenon and brought the importance of communication as a discipline in itself, within the architectural production in the age at hand, to light. Despite the importance of "SMLXL" at all levels, this thesis suggests that the communication experience really culminates in "Content", for it includes new conceptual parameters associated with the container-content conceptual fusion. It is in this book where the purpose of communication and the expression of such become a single element, ruled by similar laws. In this particular case, the fundamental law is to implement the "culture of congestion" to its extreme consequences in both the message and the media, leading to what we have agreed to refer to as "congestive communication”. This concept leads to its inevitable materialisation into an ephemeral, disposable, almost virtual product, because it meets the conditions of a very concrete and specific time, and outside that context it loses its significance. The "culture of congestion" emerged in Koolhaas’ approaches under the guidance of Elia Zenghelis, in the Architectural Association School of Architecture of London. Subsequently, his retroactive manifesto on Manhattan, "Delirious New York" developed it, waging an all-out war against the modern movement urbanism and maintaining that the really contemporary cities are those hyperdense ones that rise as a result of an unplanned development and thanks to the typical technological advances of their time. Finally it began to materialise in the Diploma Unit 9 of the AA, in which he started lecturing in 1975, leaving an indelible mark on subsequent generations of architects who passed that unit. First and foremost, Rem Koolhaas is an intellectual and, therefore, all the theoretical construct in the metropolis began to be reflected in his work through OMA since the beginnings of his production. Broadly speaking, we can say that his career is influenced by two essential historic events, which determine three different stages in his production. In the early years of his career, Koolhaas was still fascinated by the urban metropolis and the implementation of the paranoiac-critical method to his architectural production. He was then a deeply surreal architect. He understood this method as a knowledge strategy and an approach to the world around him: "let the subconscious out but hold it with the crutches of reasonableness”. However, he was actually interested in its implementation on a broad scale, the "Bigness", and therefore, he took part in ambitious projects that led to the accrual of concepts that, beyond being rewarded, left an ideological impression on the evolution of architecture. These projects included his proposal for the Parc de la Villette or the Très Grande Bibliotèque in Paris. The projects he carried out during this period showed a great conceptual background, which evolved into surprising interiors but a sober, or even "povera", exterior appearance, thanks to the use of ephemeral materials that were atypical in the macro-architecture field until that moment. Suddenly, in 1997, the so-called "Bilbao effect" boomed thanks to Frank Gehry (1). The Guggenheim Museum of Bilbao amazed the world with its spectacular nature and its pregnant and impossible shapes. It was the beginning of the era of “The architecture of spectacle”: the transformation of the city through ICONS that would act as nodes of attraction and gathering, around which the economic, cultural and socio-political activity of the city was supposed to be revitalized, as if through a single gesture all internal tissues of the city could be rebuilt. Rem Koolhaas quickly realized that the approach to the city, and especially to the global market, had changed. In the world of globalisation, the only way to get to materialise such "Bigness" was by keeping his intellectual exercises in pregnant, beautiful, iconic and spectacular shapes. Koolhaas found his personal brand in the Stealth aesthetic, resulting from the eighties American combat aircrafts whose shape was faceted in order to avoid radars. Projects such as the Casa da Música in Porto or the Seattle Library date from this period; both buildings are faceted icons of pregnant beauty that left an indelible mark on the city and caused, like the Guggenheim, some degree of recovery and revitalization on the environment in which they were based, at least temporarily. In any case, Koolhaas never gave the merely theoretical exercises up, but he segregated his work in two: OMA produced what was destined to be built and ruled by the parameters of the global market and AMO, Rem’s other side of the mirror, applied the architectural thought in unexplored fields, notwithstanding external agents and being able to work as a purely experimental laboratory. In light of this backdrop, September 11th 2001 came and the attacks on the Twin Towers in New York had devastating effects at all levels, leading to a change in the world order, in a surprisingly short period of time. Rem Koolhaas made a 180° turn directing his vision towards China, where he believed his contributions would have a more direct social benefit than in the Western world. (2) In order to introduce his new course of direction and the creation of the AMO "Think Tank", he planned a major exhibition in the Neue Nationalgalerie of Berlin under the title "Content", in parallel with edition of the book with the same title, which was at first the "exhibition catalog” but, deep down, was always conceived as the most important document of the Office since "SMLXL". However, in many ways it was just the opposite: a publication characterised by its magazine format, soft cover, very fine paging, "supermarket brochure" form and hyperdense content. It was an ephemeral, brief, light, cheap and "disposable" experiment. In fact, it is currently out of stock and out of print. Rem Koolhaas would probably disapprove of a research that sets the spotlight on him, for he would probably say that his validity has expired given that it has been ten years since its publication. However, it shows OMA’s conceptual and vital status at the time of its publication with crystalline clarity and it is also a true milestone in architectural communication. A point of no return. The epitome of the so-called "congestive communication ". This thesis suggests that "Content" contains the essence of Rem Koolhaas’ greatest contribution to the world of architecture: the deep and definitive transformation of architectural communication through the convergence of the conceptual state and the transmission thereof. His architectural and conceptual legacy has left an indelible mark on all subsequent generations. There is no doubt his essays, theories, projects and buildings already belong to the history of architecture. But it is his review on the concept of communication in architecture that has had and shall have an immediate influence on future generations, not only in their communication but also in their architecture, through a bijective exchange. Future approaches should try to determine what happens after "Content", after the maximum hyperdensity, after the visual culture of congestion; what shall Koolhaas suggest as well as what shall happen in the world of architectural communication. To this end, we shall study his latest communication-related projects, such as the design of the Venetian Architecture Biennale in 2014, his intensive research on the "Metabolism" in "Project Japan: Metabolism Talks ...", or the course of his latest territorial approaches in depth. Most recently, Rem Koolhaas has talked about "Preservation", "Sobriety" of "Essentialism", "Performance", etc. The mastermind of the culture of congestion now speaks of the "low density"... as it could not be otherwise, on the other side of the mirror. Summarizing, the white color as the sum of all colors; all wavelengths of the visible spectrum received at the same time.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La presente Tesis Doctoral evalúa la contribución de una fachada activa, constituida por acristalamientos con circulación de agua, en el rendimiento energético del edificio. Con especial énfasis en la baja afección sobre su imagen, su integración ha de favorecer la calificación del edificio con el futuro estándar de Edificio de consumo de Energía Casi Nulo (EECN). El propósito consiste en cuantificar su aportación a limitar la demanda de climatización, como solución de fachada transparente acorde a las normas de la energía del 2020. En el primer capítulo se introduce el planteamiento del problema. En el segundo capítulo se desarrollan la hipótesis y el objetivo fundamental de la investigación. Para tal fin, en el tercer capítulo, se revisa el estado del arte de la tecnología y de la investigación científica, mediante el análisis de la literatura de referencia. Se comparan patentes, prototipos, sistemas comerciales asimilables, investigaciones en curso en Universidades, y proyectos de investigación y desarrollo, sobre envolventes que incorporan acristalamientos con circulación de agua. El método experimental, expuesto en el cuarto capítulo, acomete el diseño, la fabricación y la monitorización de un prototipo expuesto, durante ciclos de ensayos, a las condiciones climáticas de Madrid. Esta fase ha permitido adquirir información precisa sobre el rendimiento del acristalamiento en cada orientación de incidencia solar, en las distintas estaciones del año. En paralelo, se aborda el desarrollo de modelos teóricos que, mediante su asimilación a soluciones multicapa caracterizadas en las herramientas de simulación EnergyPlus y IDA-ICE (IDA Indoor Climate and Energy), reproducen el efecto experimental. En el quinto capítulo se discuten los resultados experimentales y teóricos, y se analiza la respuesta del acristalamiento asociado a un determinado volumen y temperatura del agua. Se calcula la eficiencia en la captación de la radiación y, mediante la comparativa con un acristalamiento convencional, se determina la reducción de las ganancias solares y las pérdidas de energía. Se comparan el rendimiento del acristalamiento, obtenido experimentalmente, con el ofrecido por paneles solares fototérmicos disponibles en el mercado. Mediante la traslación de los resultados experimentales a casos de células de tamaño habitable, se cuantifica la afección del acristalamiento sobre el consumo en refrigeración y calefacción. Diferenciando cada caso por su composición constructiva y orientación, se extraen conclusiones sobre la reducción del gasto en climatización, en condiciones de bienestar. Posteriormente, se evalúa el ahorro de su incorporación en un recinto existente, de construcción ligera, localizado en la Escuela de Arquitectura de la Universidad Politécnica de Madrid (UPM). Mediante el planteamiento de escenarios de rehabilitación energética, se estima su compatibilidad con un sistema de climatización mediante bomba de calor y extracción geotérmica. Se describe el funcionamiento del sistema, desde la perspectiva de la operación conjunta de los acristalamientos activos e intercambio geotérmico, en nuestro clima. Mediante la parametrización de sus funciones, se estima el beneficio adicional de su integración, a partir de la mejora del rendimiento de la bomba de calor COP (Coefficient of Performance) en calefacción, y de la eficiencia EER (Energy Efficiency Ratio) en refrigeración. En el recinto de la ETSAM, se ha analizado la contribución de la fachada activa en su calificación como Edificio de Energía Casi Nula, y estudiado la rentabilidad económica del sistema. En el sexto capítulo se exponen las conclusiones de la investigación. A la fecha, el sistema supone alta inversión inicial, no obstante, genera elevada eficiencia con bajo impacto arquitectónico, reduciéndose los costes operativos, y el dimensionado de los sistemas de producción, de mayor afección sobre el edificio. Mediante la envolvente activa con suministro geotérmico no se condena la superficie de cubierta, no se ocupa volumen útil por la presencia de equipos emisores, y no se reduce la superficie o altura útil a base de reforzar los aislamientos. Tras su discusión, se considera una alternativa de valor en procesos de diseño y construcción de Edificios de Energía Casi Nulo. Se proponen líneas de futuras investigación cuyo propósito sea el conocimiento de la tecnología de los acristalamientos activos. En el último capítulo se presentan las actividades de difusión de la investigación. Adicionalmente se ha proporcionado una mejora tecnológica a las fachadas activas existentes, que ha derivado en la solicitud de una patente, actualmente en tramitación. ABSTRACT This Thesis evaluates the contribution of an active water flow glazing façade on the energy performance of buildings. Special emphasis is made on the low visual impact on its image, and the active glazing implementation has to encourage the qualification of the building with the future standard of Nearly Zero Energy Building (nZEB). The purpose is to quantify the façade system contribution to limit air conditioning demand, resulting in a transparent façade solution according to the 2020 energy legislation. An initial approach to the problem is presented in first chapter. The second chapter develops the hypothesis and the main objective of the research. To achieve this purpose, the third chapter reviews the state of the art of the technology and scientific research, through the analysis of reference literature. Patents, prototypes, assimilable commercial systems, ongoing research in other universities, and finally research and development projects incorporating active fluid flow glazing are compared. The experimental method, presented in fourth chapter, undertakes the design, manufacture and monitoring of a water flow glazing prototype exposed during test cycles to weather conditions in Madrid. This phase allowed the acquisition of accurate information on the performance of water flow glazing on each orientation of solar incidence, during different seasons. In parallel, the development of theoretical models is addressed which, through the assimilation to multilayer solutions characterized in the simulation tools EnergyPlus and IDA-Indoor Climate and Energy, reproduce the experimental effect. Fifth chapter discusses experimental and theoretical results focused to the analysis of the active glazing behavior, associated with a specific volume and water flow temperature. The efficiency on harvesting incident solar radiation is calculated, and, by comparison with a conventional glazing, the reduction of solar gains and energy losses are determined. The experimental performance of fluid flow glazing against the one offered by photothermal solar panels available on the market are compared. By translating the experimental and theoretical results to cases of full-size cells, the reduction in cooling and heating consumption achieved by active fluid glazing is quantified. The reduction of energy costs to achieve comfort conditions is calculated, differentiating each case by its whole construction composition and orientation. Subsequently, the saving of the implementation of the system on an existing lightweight construction enclosure, located in the School of Architecture at the Polytechnic University of Madrid (UPM), is then calculated. The compatibility between the active fluid flow glazing and a heat pump with geothermal heat supply system is estimated through the approach of different energy renovation scenarios. The overall system operation is described, from the perspective of active glazing and geothermal heat exchange combined operation, in our climate. By parameterization of its functions, the added benefit of its integration it is discussed, particularly from the improvement of the heat pump performance COP (Coefficient of Performance) in heating and efficiency EER (Energy Efficiency Ratio) in cooling. In the case study of the enclosure in the School of Architecture, the contribution of the active glazing façade in qualifying the enclosure as nearly Zero Energy Building has been analyzed, and the feasibility and profitability of the system are studied. The sixth chapter sets the conclusions of the investigation. To date, the system may require high initial investment; however, high efficiency with low architectural impact is generated. Operational costs are highly reduced as well as the size and complexity of the energy production systems, which normally have huge visual impact on buildings. By the active façade with geothermal supply, the deck area it is not condemned. Useful volume is not consumed by the presence of air-conditioning equipment. Useful surface and room height are not reduced by insulation reinforcement. After discussion, water flow glazing is considered a potential value alternative in nZEB design and construction processes. Finally, this chapter proposes future research lines aiming to increase the knowledge of active water flow glazing technology. The last chapter presents research dissemination activities. Additionally, a technological improvement to existing active facades has been developed, which has resulted in a patent application, currently in handling process.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El presente trabajo de investigación determina las características de la cerámica que más eficientemente se comporta a evaporación y a enfriamiento. Con el objeto de ser empleado como material integrado en la envolvente de los edificios para reducir su carga de refrigeración. La cerámica es un buen material para ser empleado para la refrigeración por evaporación. Es un sólido poroso inerte que, tras ser sometido a cocción a temperaturas por encima de los 900ºC, resulta uno de los materiales que mejor se comportan como contenedor de agua en su red capilar para, posteriormente, ir liberándola por evaporación al mismo tiempo que se enfría su superficie. La metodología general de investigación, se divide en tres etapas: Búsqueda y análisis del estado de la técnica y de la investigación. Estudio teórico de la eficacia del enfriamiento evaporativo como estrategia de enfriamiento pasivo en la arquitectura. Etapa experimental, desarrollada en tres fases: una primera de definición de los parámetros determinantes del Enfriamiento Evaporativo en piezas cerámicas, una segunda de selección cerámica y diseño de ensayos experimentales y una tercera de caracterización de la cerámica bajo criterios de evaporación y de enfriamiento. El recorrido por el estado de la cuestión ha identificado las aplicaciones tecnológicas y las investigaciones científicas que emplean el Enfriamiento Evaporativo con piezas cerámicas como técnica de enfriamiento. Como resultado se ha obtenido una tabla de clasificación de sistemas de enfriamiento evaporativo y se ha constatado que el conjunto de las aplicaciones están centradas en el diseño de piezas o sistemas pero que, sin embargo, no existe una definición de las características de la cerámica para su empleo como material de enfriamiento por evaporación. El estudio teórico de la eficacia del empleo del enfriamiento evaporativo como estrategia de enfriamiento pasivo en la arquitectura se ha realizado mediante cálculos de porcentaje de ampliación de horas en confort con empleo de técnicas de enfriamiento evaporativo directo e indirecto (EED y EEI). Como resultado se obtienen unos mapas para el ámbito español de potencial de aplicación del EED y EEI. Los resultados permiten afirmar que mediante EE se puede llegar a confort en prácticamente la totalidad de las horas de los días más cálidos del año en muchas localidades. La metodología experimental se ha desarrollado en tres fases. En la fase inicial, se han definido los parámetros determinantes del enfriamiento evaporativo en un medio cerámico mediante ensayos experimentales de capacidad de evaporación y de caracterización. Se realizaron un total de 12 ensayos. Se determinó que el material cerámico tiene una gran influencia en la capacidad de evaporación y enfriamiento en las piezas cerámicas, apoyando la hipótesis inicial y la necesidad de caracterizar el material. La primera fase empírica se centró en la selección cerámica y el diseño de los ensayos experimentales de comportamiento hídrico. Se seleccionaron muestras de 5 tipos de cerámica. Se realizaron 4 tipos de ensayos de caracterización y 6 tipos de ensayos experimentales de comportamiento hídrico (total 123 muestras ensayadas). Los resultados obtenidos son de dos tipos, por un lado, se determinó cuál es el tipo de cerámica que más eficientemente se comporta a EE y, por otro, se rediseñaron los ensayos de la última fase experimental. Para la segunda fase experimental se seleccionaron cerámicas de fabricación manual abarcando el mayor número de localidades del ámbito español. Se realizaron ensayos de caracterización de 7 tipos y ensayos de comportamiento hídrico de 5 tipos (total 197 muestras ensayadas). Los resultados de caracterización han permitido aportar unos rangos de las características de la cerámica que más eficientemente se comporta en los ensayos de comportamiento hídrico. Al final de la investigación se ha caracterizado el material cerámico aportando características acerca de su porosidad, capacidad de absorción, color, rugosidad y mineralogía. Así como datos de referencia de su comportamiento hídrico. Además se ha desarrollado una metodología de ensayo específica que permite evaluar la capacidad de enfriamiento eficiente de una pieza cerámica. ABSTRACT The purpose of this research is to determine the characteristics of ceramic materials having the most efficient performance in terms of evaporation and cooling, so that they can be integrated in building envelopes to reduce cooling loads. Ceramics are suitable materials for cooling through passive evaporation. After being fired at temperatures over 900 °C (1,652 °F), the capillary network of this inert porous medium turns to be excellent to retain water, which is progressively liberated by evaporation while the material surface gets colder. Research methodology has involved the following steps: Search and analysis on the state of the art in technology and research. Theoretical study on the efficiency of evaporation as passive cooling strategies in buildings. Experimental stage developed in three phases, namely: definition of parameters determining evaporative cooling in ceramic elements; ceramic selection and design of experimental tests; characterization of ceramic materials under evaporation and cooling criteria. Search and analysis on the state of the art in this field have been useful to identify technology applications and scientific research where ceramics are employed for evaporative cooling. The resulting table shows that applications are wholly focused on the design of pieces and systems. Nonetheless, there is lack of definition of material characteristics in this scope. The theoretical study on efficiency of the passive strategy applied to buildings has been realized by calculation of the percentage increase in comfort hours through direct/indirect evaporative cooling techniques (DEC/IEC). The mapping of their potential application in Spain clearly shows that comfort conditions can be reached in almost all the hours of the hottest days in many towns. In the initial phase of the experimental stage, parameters determining evaporative cooling in ceramic media have been defined. For this purpose, characterization tests and evaporation and cooling rates experiments have been carried out; the number of samples tested amounted to 12. It has been concluded that material characteristics have great influence on these rates, which supports the initial hypothesis and the need for their characterization. The first empirical phase has focused on ceramic selection and design of water behaviour experimental methods. The samples covered five different kinds of ceramic materials. Four different characterization tests and six different water behaviour experiments were carried out; the number of samples tested amounted to 123. The experimental testing procedures served to determine the most efficient types of ceramic materials in terms of evaporative cooling efficiency and, at the same time, made it necessary to change the original designed experimental test for the last phase. In the second phase, a number of varied hand-made ceramic tiles have been selected. Seven different characterization tests and five different water behaviour tests were carried out; the number of samples amounted to 197. The results of characterization served to establish a range of features in ceramic materials according to their efficiency in water behaviour experiments. Finally, ceramic materials have been characterized according to porosity, water absorption, colour, surface roughness and mineralogy. Also, reference data regarding water behaviour have been included. Moreover, an innovative and specific experimental test to evaluate cooling efficiency of ceramic tiles has been developed.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El propósito de esta tesis es estudiar la aproximación a los fenómenos de transporte térmico en edificación acristalada a través de sus réplicas a escala. La tarea central de esta tesis es, por lo tanto, la comparación del comportamiento térmico de modelos a escala con el correspondiente comportamiento térmico del prototipo a escala real. Los datos principales de comparación entre modelo y prototipo serán las temperaturas. En el primer capítulo del Estado del Arte de esta tesis se hará un recorrido histórico por los usos de los modelos a escala desde la antigüedad hasta nuestro días. Dentro de éste, en el Estado de la Técnica, se expondrán los beneficios que tiene su empleo y las dificultades que conllevan. A continuación, en el Estado de la Investigación de los modelos a escala, se analizarán artículos científicos y tesis. Precisamente, nos centraremos en aquellos modelos a escala que son funcionales. Los modelos a escala funcionales son modelos a escala que replican, además, una o algunas de las funciones de sus prototipos. Los modelos a escala pueden estar distorsionados o no. Los modelos a escala distorsionados son aquellos con cambios intencionados en las dimensiones o en las características constructivas para la obtención de una respuesta específica por ejemplo, replicar el comportamiento térmico. Los modelos a escala sin distorsión, o no distorsionados, son aquellos que mantienen, en la medida de lo posible, las proporciones dimensionales y características constructivas de sus prototipos de referencia. Estos modelos a escala funcionales y no distorsionados son especialmente útiles para los arquitectos ya que permiten a la vez ser empleados como elementos funcionales de análisis y como elementos de toma de decisiones en el diseño constructivo. A pesar de su versatilidad, en general, se observará que se han utilizado muy poco estos modelos a escala funcionales sin distorsión para el estudio del comportamiento térmico de la edificación. Posteriormente, se expondrán las teorías para el análisis de los datos térmicos recogidos de los modelos a escala y su aplicabilidad a los correspondientes prototipos a escala real. Se explicarán los experimentos llevados a cabo, tanto en laboratorio como a intemperie. Se han realizado experimentos con modelos sencillos cúbicos a diferentes escalas y sometidos a las mismas condiciones ambientales. De estos modelos sencillos hemos dado el salto a un modelo reducido de una edificación acristalada relativamente sencilla. Los experimentos consisten en ensayos simultáneos a intemperie del prototipo a escala real y su modelo reducido del Taller de Prototipos de la Escuela Técnica Superior de Arquitectura de Madrid (ETSAM). Para el análisis de los datos experimentales hemos aplicado las teorías conocidas, tanto comparaciones directas como el empleo del análisis dimensional. Finalmente, las simulaciones nos permiten comparaciones flexibles con los datos experimentales, por ese motivo, hemos utilizado tanto programas comerciales como un algoritmo de simulación desarrollado ad hoc para esta investigación. Finalmente, exponemos la discusión y las conclusiones de esta investigación. Abstract The purpose of this thesis is to study the approximation to phenomena of heat transfer in glazed buildings through their scale replicas. The central task of this thesis is, therefore, the comparison of the thermal performance of scale models without distortion with the corresponding thermal performance of their full-scale prototypes. Indoor air temperatures of the scale model and the corresponding prototype are the data to be compared. In the first chapter on the State of the Art, it will be shown a broad vision, consisting of a historic review of uses of scale models, from antiquity to our days. In the section State of the Technique, the benefits and difficulties associated with their implementation are presented. Additionally, in the section State of the Research, current scientific papers and theses on scale models are reviewed. Specifically, we focus on functional scale models. Functional scale models are scale models that replicate, additionally, one or some of the functions of their corresponding prototypes. Scale models can be distorted or not. Scale models with distortion are considered scale models with intentional changes, on one hand, in dimensions scaled unevenly and, on the other hand, in constructive characteristics or materials, in order to get a specific performance for instance, a specific thermal performance. Consequently, scale models without distortion, or undistorted scale models scaled evenly, are those replicating, to the extent possible, without distortion, the dimensional proportions and constructive configurations of their prototypes of reference. These undistorted and functional scale models are especially useful for architects because they can be used, simultaneously, as functional elements of analysis and as decision-making elements during the design. Although they are versatile, in general, it is remarkable that these types of models are used very little for the study of the thermal performance of buildings. Subsequently, the theories related to the analysis of the experimental thermal data collected from the scale models and their applicability to the corresponding full-scale prototypes, will be explained. Thereafter, the experiments in laboratory and at outdoor conditions are detailed. Firstly, experiments carried out with simple cube models at different scales are explained. The prototype larger in size and the corresponding undistorted scale model have been subjected to same environmental conditions in every experimental test. Secondly, a step forward is taken carrying out some simultaneous experimental tests of an undistorted scale model, replica of a relatively simple lightweight and glazed building construction. This experiment consists of monitoring the undistorted scale model of the prototype workshop located in the School of Architecture (ETSAM) of the Technical University of Madrid (UPM). For the analysis of experimental data, known related theories and resources are applied, such as, direct comparisons, statistical analyses, Dimensional Analysis and last, but not least important, simulations. Simulations allow us, specifically, flexible comparisons with experimental data. Here, apart the use of the simulation software EnergyPlus, a simulation algorithm is developed ad hoc for this research. Finally, the discussion and conclusions of this research are exposed.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Un nuevo sistema de gobernanza para afrontar los retos del siglo XXI en la educación universitaria en Perú basado en el modelo de análisis de políticas, surge de observar el efecto de la competencia en los mercados, de la distribución de los escasos recursos según productividad y rendimiento, y de la gestión ineficiente de las universidades ya que estos parámetros están cambiando los criterios de confianza y legitimidad del sistema universitario en Perú. Las universidades se perciben más como instituciones del sector público, mientras que los servicios que ofrecen deben más bien contribuir a la modernización de la sociedad emergente y a la economía del conocimiento. Las reformas universitarias- iniciadas en los años 80 - han estado inspiradas en las organizaciones universitarias exitosas que han logrado modificar su gobernanza y van dirigidas a transformar ciertas instituciones burocráticas en organizaciones capaces de desempeñar la función de actores en esta competición global por los recursos y los mejores talentos. En este contexto, la universidad peruana se enfrenta a dos grandes desafíos: el de adaptarse a las nuevas perspectivas mundiales, y el poder dar mejor respuesta a las demandas, necesidades y expectativas de la sociedad. Un cambio en el sistema de gobernanza para la educación superior universitaria dará una solución integral a estos desafíos permitiéndole enfrentar los problemas de la universidad para su desarrollo e inserción en las corrientes mundiales. La metodología planteada en la investigación es cualitativa parte del análisis de la realidad como un TODO, sin reducirlos a sus partes integrantes, con la interpretación de los hechos, buscando entender las variables que intervienen. Se propone una política para la educación universitaria en Perú que se permeabilice a la sociedad, cambiando el modelo de planificación de un modelo de reforma social a un modelo de análisis de políticas, donde el Estado Peruano actúe como único responsable de responder a la sociedad demandante como su representante legal, y con unos organismo externo e independiente que siente las bases de la práctica, como se está haciendo en muchos modelos universitarios del mundo. Esta investigación presenta una primera fase conceptual, que aborda la evolución histórica de las universidades en el Perú, analizando y clarificando las fuerzas impulsoras a través del tiempo y distinguir las principales líneas que le imprimen dirección y sentido a los cambios de una realidad educativa universitaria. Así mismo, en esta fase se hace un análisis de la situación actual de las universidades en el Perú para llegar a determinar en qué situación se encuentra y si está preparada para enfrentar los retos de la educación universitaria mundial, para esto se analizan los modelos universitarios de mayor prestigio en el mundo. El marco teórico anterior permite sentar, en una segunda fase de la investigación, las bases científicas del modelo que se propone: el modelo de planificación de análisis de políticas para el sistema universitario peruano. Este modelo de ámbito público propuesto para la educación universitaria peruana basa su estrategia en un modelo de planificación con un objetivo común: “Mejorar la calidad de la educación superior universitaria peruana con el fin de aumentar la empleabilidad y la movilidad de los ciudadanos así como la competitividad internacional de la educación universitaria en Perú”, y con unas líneas de acción concretadas en cuatro objetivos específicos: 1) competencias (genéricas y específicas de las áreas temáticas); 2) enfoques de enseñanza, aprendizaje y evaluación; 3) créditos académicos; 4) calidad de los programa. Así como los fundamentos metodológicos del modelo de análisis de políticas, utilizado como estructura política, teniendo en cuenta las características básicas del modelo: a) Planificación desde arriba; b) Se centra en la toma de decisiones; c) Separación entre conocimiento experto y decisión; d) El estudio de los resultados orienta el proceso decisor. Finalmente, se analiza una fase de validación del modelo propuesto para la educación superior universitaria peruana, con los avances ya realizados en Perú en temas de educación superior, como es, el actual contexto de la nueva Ley Universitaria N°30220 promulgada el 8 de julio de 2014, la creación del SUNEDU y la reorganización del SINEACE, que tienen como propósito atender la crisis universitaria centrada en tres ejes principales incluidos en la ley, considerados como bases para una reforma. Primero, el Estado asume la rectoría de las políticas educativas en todos los niveles educativos. El segundo aspecto consiste en instalar un mecanismo de regulación de la calidad que junto con la reestructuración de aquellos otros existentes debieran sentar las bases para que las familias y estudiantes tengan la garantía pública de que el servicio que se ofrece, sin importar sus características particulares, presenten un mínimo común de calidad y un tercer aspecto es que la ley se reafirma en que la universidad es un espacio de construcción de conocimiento basado en la investigación y la formación integral. Las finalidades, la estructura y organización, las formas de graduación, las características del cuerpo docente, la obligatoriedad por los estudios generales, etc., indican que la reflexión académica es el centro articulador de la vida universitaria. Esta validación también se ha confrontado con los resultados de las entrevistas cualitativas a juicio de experto que se han realizado a rectores de universidades públicas y privadas así como a rectores miembros de la ex ANR, miembros de organizaciones como CONCYTEC, IEP, CNE, CONEAU, ICACIT e investigadores en educación superior, con la finalidad de analizar la sostenibilidad del modelo propuesto en el tiempo. Los resultados evidencian, que en el sistema universitario peruano se puede implementar un cambio hacía un modelo de educación superior universitaria, con una política educativa que se base en un objetivo común claramente definido, un calendario para lograrlo y un conjunto objetivos específicos, con un cambio de estructura política de reforma social a un modelo de análisis de políticas. Así mismo se muestran los distintos aspectos que los interesados en la educación superior universitaria deben considerar, si se quiere ocupar un espacio en el futuro y si interesa que la universidad peruana pueda contribuir para que la sociedad se forje caminos posibles a través de una buena docencia que se refleje en su investigación, con alumnos internacionales, sobre todo, en los postgrados; con un investigación que se traduzca en publicaciones, patentes, etc., de impacto mundial, con relevancia en la sociedad porque contribuye a su desarrollo, concretándose en trabajos de muy diversos tipos, promovidos junto con empresas, gobiernos en sus diversos niveles, instituciones públicas o privadas, etc., para que aporten financiación a la universidad. ABSTRACT A new system of governance to meet the challenges of the twenty-first century university education in Peru based on the model of policy analysis, comes to observe the effect of market competition, distribution of scarce resources according to productivity and performance, and inefficient management of universities as these parameters are changing the criteria of trust and legitimacy of the university system in Peru. Universities are perceived more as public sector institutions, while the services provided should rather contribute to the modernization of society and the emerging knowledge economy. The-university reforms initiated in the 80s - have been inspired by successful university organizations that have succeeded in changing its governance and as attempting to transform certain bureaucratic institutions into organizations that act as actors in this global competition for resources and top talent. In this context, the Peruvian university faces two major challenges: to adapt to the new global outlook, and to better respond to the demands, needs and expectations of society. A change in the system of governance for university education give a comprehensive solution to address these challenges by allowing the problems of the university development and integration into global flows. The methodology proposed in this research is qualitative part of the analysis of reality as a whole, without reducing them to their constituent parts, with the interpretation of the facts, seeking to understand the variables involved. a policy for university education in Peru that permeabilizes society is proposed changing the planning model of a model of social reform a model of policy analysis, where the Peruvian State to act as the sole responsible for responding to the applicant as its legal representative, and with external and independent body that provides the basis of practice, as is being done in many university models in the world. This research presents an initial conceptual phase, which deals with the historical development of universities in Peru, analyzing and clarifying the driving forces over time and distinguish the main lines that give direction and meaning to changes in university educational reality. Also, at this stage an analysis of the current situation of universities in Peru is done to be able to determine what the situation is and whether it is prepared to meet the challenges of the global higher education, for this university models are analyzed most prestigious in the world. The above theoretical framework allows to lay in a second phase of research, the scientific basis of the model proposed: the planning model of policy analysis for the Peruvian university system. This proposed model of public sphere for the Peruvian college bases its strategy on a planning model with a common goal: "To improve the quality of the Peruvian university education in order to enhance the employability and mobility of citizens and the international competitiveness of higher education in Peru ", and lines of action materialized in four specific objectives: 1) competences (generic and specific subject areas); 2) approaches to teaching, learning and assessment; 3) credits; 4) quality of the program. As well as the methodological foundations of policy analysis model, used as political structure, taking into account the basic characteristics of the model: a) Planning from above; b) focuses on decision making; c) Separation between expertise and decision; d) The study of the results process guides the decision maker. Finally, a validation phase of the proposed Peruvian university higher education, with the progress already made in Peru on issues of higher education model is analyzed, as is the current context of the new University Law No. 30220 promulgated on July 8 2014, the creation of SUNEDU and reorganization of SINEACE, which are intended to serve the university crisis centered on three main areas included in the law, considered as the basis for reform. First, the State assumes the stewardship of education policies at all educational levels. The second aspect is to install a mechanism for regulating the quality along with the restructuring of those existing ones should lay the foundation for families and students to guarantee that public service is offered, regardless of their individual characteristics, are of common minimum quality and a third aspect is that the law reaffirms that the university is building a space of research-based knowledge and comprehensive training. The aims, structure and organization, forms of graduation, faculty characteristics, the requirement for the general studies, etc., indicate that the academic reflection is the coordinating center of university life. This validation has also been confronted with the results of qualitative interviews with expert judgment that has been made to directors of public and private universities as well as leading members of the former ANR members of organizations like CONCYTEC, IEP, CNE, CONEAU, ICACIT and researchers in higher education, in order to analyze the sustainability of the proposed model in time. The results show, that the Peruvian university system can implement a change to a model of university education, an educational policy based on clearly defined common goal, a timetable for achieving specific objectives set and, with a change social policy structure to a model of reform policy analysis. It also shows the various aspects that those interested in university education should consider, if you want to occupy a space in the future and if interested in the Peruvian university can contribute to society possible paths is forged through research good teaching, international students, especially in graduate programs; with research that results in publications, patents, etc., global impact, relevance to society because it contributes to their development taking shape in very different types of jobs, promoted with businesses, governments at various levels, public institutions or private, etc., to provide funding to the university.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RESUMEN La adquisición de la competencia comunicativa intercultural en la enseñanza de Lenguas Extranjeras (LE) y/o Lenguas para Fines Específicos (LFE) debe ser un proceso de aprendizaje consciente y explícito cuyo fin es la transmisión de conocimientos teóricos, el desarrollo de habilidades comportamentales y de actitudes positivas a través del contacto con la/s cultura/s meta. Esta tesis tiene como objetivo general contribuir al desarrollo de la competencia comunicativa intercultural comercial del estudiante de español de los negocios (EN). Para ello se ha realizado un análisis de los manuales para su enseñanza. En concreto, hemos auditado los manuales de EN con el fin de conocer la metodología didáctica que emplean en la enseñanza de la competencia comunicativa intercultural comercial, tomando como marco de referencia el enfoque intercultural para la enseñanza de las Lenguas de los Negocios. Para alcanzar este fin se ha dividido la investigación en tres partes: 1) la revisión de los antecedentes sobre la enseñanza del componente intercultural y del análisis de materiales en los cursos de LFE; 2) la configuración de un constructo teórico que permitiera a la vez, seleccionar el objeto de estudio, diseñar el instrumento de análisis y disponer de un marco de referencia valorativo; 3) y la creación, pilotaje y aplicación del instrumento de análisis, y la auditoría de los datos. Los resultados muestran que, en líneas generales, predomina una visión tradicional de la cultura; un escaso tratamiento de la relación lengua-y-cultura; un seguimiento parcial de los principios pedagógicos para la adquisición de la competencia comunicativa intercultural; un tratamiento bajo de las habilidades interculturales específicas en las interacciones comerciales; y una cobertura parcial de las habilidades interculturales generales, las cuales se centran fundamentalmente en la adqusición de saberes teóricos. PALABRAS CLAVE: competencia comunicativa intercultural; comunicación intercultural comercial; español de los negocios; español para fines específicos; auditoria de manuales didácticos. ABSTRACT The acquisition of intercultural communicative competence in Foreign Language (FL) and / or Languages for Specific Purposes teaching (LSP) must be a conscious and explicit learning to develop knowledge, skills and positive attitudes through contact with the target culture/s. The overall objective of this thesis is to assist the development of the intercultural communicative competence of the student of Spanish for Business (SB) through the audit of the teaching textbooks published in the last decade through a multidisciplinary approach to teaching LSP. The audit was carried out in order to ascertain the underlying approach and course design for the development of the intercultural communicative competence; to state the methodological approach to culture, language-and-culture relationship, culture teaching, culture acquisition and course design. To achieve this objective, the work has been divided into four parts: 1) review of the background on teaching the intercultural component and the analysis of materials in a courses of LSP through a multidisciplinary approach, 2) configuration of a theoretical construct allowing to select the object of study, to design the analytical instrument and to have an evaluative framework, together with the selection of a corpus of Spanish for Business textbooks, 3) development of the analytical instrument and 4) application of the analytical instrument and audit of selected textbooks. The results show that, in the textbooks analyzed, dominated a traditional view of culture, a low ratio treatment of the language-and-culture relationship, a partial implementation of the pedagogical principles for the acquisition of intercultural communicative competence; poor treatment of specific intercultural skills in business interactions, and partial coverage of the general cultural skills, which focus primarily on the acquisition of theoretical knowledge. KEY WORDS: Intercultural communicative competence; Intercultural communicative competence; Spanish for Business; Spanish for Specific Purposes; Textbook audit

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los polímeros armados con fibras (FRP) se utilizan en refuerzos de estructuras de hormigón debido sobre todo a sus excelentes propiedades mecánicas, su resistencia a la corrosión y a su ligereza que se traduce en facilidad y ahorro en el transporte, puesta en obra y aplicación, la cual se realiza de forma muy rápida, con pocos operarios y utilizando medios auxiliares ligeros, minimizándose las interrupciones del uso de la estructura y las molestias a los usuarios. Las razones presentadas anteriormente, han despertado un gran inter´es por parte de diferentes grupos de investigación a nivel mundial y que actualmente se encuentran desarrollando nuevas técnicas de aplicación y métodos de cálculo. Sin embargo, las investigaciones realizadas hasta la fecha, muestran un procedimiento bien definido y aceptado en lo referente al cálculo a flexión, lo cual no ocurre con el refuerzo a cortante y aunque se ha demostrado que el refuerzo con FRP es un sistema eficaz para incrementar la capacidad ´ultima frente a esfuerzos cortantes, también se pone de manifiesto la necesidad de más estudios experimentales y teóricos para avanzar en el entendimiento de los mecanismos involucrados para este tipo de refuerzo y establecer un procedimiento de diseño apropiado que maximice las excelentes propiedades de este material. Los modelos que explican el comportamiento del refuerzo a cortante de elementos de hormigón armado son complejos y sin transposición directa a fórmulas ingenieriles. Las normas actualmente en vigor, generalmente, establecen empíricamente la capacidad cortante como la suma de las capacidades del hormigón y el refuerzo transversal de acero. Cuando un elemento es reforzado externamente con FRP, los modelos son evidentemente aun más complejos. Las guías y recomendaciones existentes proponen calcular la capacidad del elemento añadiendo la resistencia aportada por el refuerzo externo de FRP a la ya dada por el hormigón y acero transversal. Sin embargo, la idoneidad de este acercamiento es cuestionable puesto que no tiene en cuenta una posible interacción entre refuerzos. Con base en lo anterior se da origen al tema objeto de este trabajo, el cual está orientado al estudio a cortante de elementos de hormigón armado (HA), reforzados externamente con material compuesto de tejido unidireccional de fibra de carbono y resina epoxi. Inicialmente se hace una completa revisión del estado actual del conocimiento de la resistencia a cortante en elementos de hormigón armado con y sin refuerzo externo de FRP, prestando especial atención en los mecanismos actuantes estudiados hasta la fecha. La bibliografía consultada ha sido exhaustiva y actualizada lo que ha permitido el estudio de los modelos propuestos más importantes, tanto para la descripción del fenómeno de adherencia entre hormigón-FRP como de la valoración del aporte al cortante total hecho por el FRP, a través de sendas bases de datos de ensayos de pull-out y de vigas de hormigón armado ensayadas a cortante. Con base en todo lo anterior, se expusieron los mecanismos actuantes en el aporte a cortante hecho por el FRP en elementos de hormigón armado y la forma como las principales guías de cálculo existentes hasta la fecha los abordan. De igual forma se define un modelo de resistencia de esfuerzos para el FRP y se proponen dos modelos para el cálculo de las tensiones o deformaciones efectivas, de los cuales uno esta basado en el modelo de adherencia propuesto por Oller (2005) y el otro en una regresión multivariante para los mecanismos expuestos. Como complemento del estudio de los trabajos encontrados en la literatura, se lleva acabo un programa experimental que, además de aportar más registros a la exigua base de datos existentes, aporte mayor luz a los puntos que se consideran están deficientemente resueltos. Dentro de este programa se realizaron 32 ensayos sobre 16 vigas de 4.5 m de longitud (dos ensayos por viga), reforzadas a cortante con tejido unidireccional de CFRP. Finalmente, estos estudios han permitido proponer modificaciones a las formulaciones existentes en los códigos y guías en vigor. Abstract Its excellent mechanical properties, as well as its corrosion resistance and light weight, which make it easy to apply and inexpensive to ship to the worksite, are the basis of the extended use of fiber reinforced polymer (FRP) as external strengthening for structures. FRP strengthening is a rapid operation calling for only limited labor and lightweight ancillary equipment, all of which minimizes both the interruption of facility usage and user inconvenience. These advantages have aroused considerable interest in civil engineering science and technology and have led to countless applications the world over. Research studies on the shear strength of FRP-strengthened members have been much fewer in number and more controversial than the research on flexural strengthening, for which a more or less standardized and generally accepted procedure has been established. The research conducted and a host of applications around the world have shown that FRP strengthening is an effective technique for raising ultimate shear strength, but it has also revealed a need for further experimental and theoretical research to advance in the understanding of the mechanisms involved and establish suitable design procedures that optimize the excellent properties of this material The models that explain reinforced concrete (RC) shear strength behavior are complex and cannot be directly transposed to engineering formulas. The standards presently in place generally establish shear capacity empirically as the sum of the capacities of the concrete and the passive reinforcement. When members are externally strengthened with FRP, the models are obviously even more complex. The existing guides and recommendations propose calculating capacity by adding the external strength provided by the FRP to the contributions of the concrete and passive reinforcement. The suitability of this approach is questionable, however, because it fails to consider the interaction between passive reinforcement and external strengthening. The subject of this work is based in above, which is focused on externally shear strengthening for reinforced concrete members with unidirectional carbon fiber sheets bonded with epoxy resin. v Initially a thorough literature review on shear of reinforced concrete beams with and without external FRP strengthening was performed, paying special attention to the acting mechanisms studied to date, which allowed the study of the most important models both to describe the bond phenomenon as well as calculating the FRP shear contribution, through separate databases of pull-out tests and shear tests on reinforced concrete beams externally strengthened with FRP. Based on above, they were exposed the acting mechanisms in a FRP shear strengthening on reinforced concrete beams and how guidelines deal the topic. The same way, it is defined a FRP stress strength model and two more models are proposed for calculating the effective stress, one of these is based on the Oller (2005) bond model and another one is the data best fit, taking into account most of the acting mechanisms. To complement the theoretical part we develop an experimental program that, in addition to providing more records to the meager existing database provide greater understanding to the points considered poorly resolved. The test program included 32 tests of 16 beams (2 per beam) of 4.5 m long, shear strengthened with FRP, externally. Finally, modifications to the existing codes and guidelines are proposed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La fisuración iniciada en la superficie de los pavimentos asfálticos constituye uno de los más frecuentes e importantes modos de deterioro que tienen lugar en los firmes bituminosos, como han demostrado los estudios teóricos y experimentales llevados a cabo en la última década. Sin embargo, este mecanismo de fallo no ha sido considerado por los métodos tradicionales de diseño de estos firmes. El concepto de firmes de larga duración se fundamenta en un adecuado seguimiento del proceso de avance en profundidad de estos deterioros y la intervención en el momento más apropiado para conseguir mantenerlos confinados como fisuras de profundidad parcial en la capa superficial más fácilmente accesible y reparable, de manera que pueda prolongarse la durabilidad y funcionalidad del firme y reducir los costes generalizados de su ciclo de vida. Por lo tanto, para la selección de la estrategia óptima de conservación de los firmes resulta esencial disponer de metodologías que posibiliten la identificación precisa in situ de la fisuración descendente, su seguimiento y control, y que además permitan una determinación fiable y con alto rendimiento de su profundidad y extensión. En esta Tesis Doctoral se presentan los resultados obtenidos mediante la investigación sistemática de laboratorio e in situ llevada a cabo para la obtención de datos sobre fisuración descendente en firmes asfálticos y para el estudio de procedimientos de evaluación de la profundidad de este tipo de fisuras empleando técnicas de ultrasonidos. Dichos resultados han permitido comprobar que la metodología no destructiva propuesta, de rápida ejecución, bajo coste y sencilla implementación (principalmente empleada hasta el momento en estructuras metálicas y de hormigón, debido a las dificultades que introduce la naturaleza viscoelástica de los materiales bituminosos) puede ser aplicada con suficiente fiabilidad y repetibilidad sobre firmes asfálticos. Las medidas resultan asimismo independientes del espesor total del firme. Además, permite resolver algunos de los inconvenientes frecuentes que presentan otros métodos de diagnóstico de las fisuras de pavimentos, tales como la extracción de testigos (sistema destructivo, de alto coste y prolongados tiempos de interrupción del tráfico) o algunas otras técnicas no destructivas como las basadas en medidas de deflexiones o el georradar, las cuales no resultan suficientemente precisas para la investigación de fisuras superficiales. Para ello se han realizado varias campañas de ensayos sobre probetas de laboratorio en las que se han estudiado diferentes condiciones empíricas como, por ejemplo, distintos tipos de mezclas bituminosas en caliente (AC, SMA y PA), espesores de firme y adherencias entre capas, temperaturas, texturas superficiales, materiales de relleno y agua en el interior de las grietas, posición de los sensores y un amplio rango de posibles profundidades de fisura. Los métodos empleados se basan en la realización de varias medidas de velocidad o de tiempo de transmisión del pulso ultrasónico sobre una única cara o superficie accesible del material, de manera que resulte posible obtener un coeficiente de transmisión de la señal (mediciones relativas o autocompensadas). Las mediciones se han realizado a bajas frecuencias de excitación mediante dos equipos de ultrasonidos diferentes dotados, en un caso, de transductores de contacto puntual seco (DPC) y siendo en el otro instrumento de contacto plano a través de un material especialmente seleccionado para el acoplamiento (CPC). Ello ha permitido superar algunos de los tradicionales inconvenientes que presenta el uso de los transductores convencionales y no precisar preparación previa de las superficies. La técnica de autocalibración empleada elimina los errores sistemáticos y la necesidad de una calibración local previa, demostrando el potencial de esta tecnología. Los resultados experimentales han sido comparados con modelos teóricos simplificados que simulan la propagación de las ondas ultrasónicas en estos materiales bituminosos fisurados, los cuales han sido deducidos previamente mediante un planteamiento analítico y han permitido la correcta interpretación de dichos datos empíricos. Posteriormente, estos modelos se han calibrado mediante los resultados de laboratorio, proporcionándose sus expresiones matemáticas generalizadas y gráficas para su uso rutinario en las aplicaciones prácticas. Mediante los ensayos con ultrasonidos efectuados en campañas llevadas a cabo in situ, acompañados de la extracción de testigos del firme, se han podido evaluar los modelos propuestos. El máximo error relativo promedio en la estimación de la profundidad de las fisuras al aplicar dichos modelos no ha superado el 13%, con un nivel de confianza del 95%, en el conjunto de todos los ensayos realizados. La comprobación in situ de los modelos ha permitido establecer los criterios y las necesarias recomendaciones para su utilización sobre firmes en servicio. La experiencia obtenida posibilita la integración de esta metodología entre las técnicas de auscultación para la gestión de su conservación. Abstract Surface-initiated cracking of asphalt pavements constitutes one of the most frequent and important types of distress that occur in flexible bituminous pavements, as clearly has been demonstrated in the technical and experimental studies done over the past decade. However, this failure mechanism has not been taken into consideration for traditional methods of flexible pavement design. The concept of long-lasting pavements is based on adequate monitoring of the depth and extent of these deteriorations and on intervention at the most appropriate moment so as to contain them in the surface layer in the form of easily-accessible and repairable partial-depth topdown cracks, thereby prolonging the durability and serviceability of the pavement and reducing the overall cost of its life cycle. Therefore, to select the optimal maintenance strategy for perpetual pavements, it becomes essential to have access to methodologies that enable precise on-site identification, monitoring and control of top-down propagated cracks and that also permit a reliable, high-performance determination of the extent and depth of cracking. This PhD Thesis presents the results of systematic laboratory and in situ research carried out to obtain information about top-down cracking in asphalt pavements and to study methods of depth evaluation of this type of cracking using ultrasonic techniques. These results have demonstrated that the proposed non-destructive methodology –cost-effective, fast and easy-to-implement– (mainly used to date for concrete and metal structures, due to the difficulties caused by the viscoelastic nature of bituminous materials) can be applied with sufficient reliability and repeatability to asphalt pavements. Measurements are also independent of the asphalt thickness. Furthermore, it resolves some of the common inconveniences presented by other methods used to evaluate pavement cracking, such as core extraction (a destructive and expensive procedure that requires prolonged traffic interruptions) and other non-destructive techniques, such as those based on deflection measurements or ground-penetrating radar, which are not sufficiently precise to measure surface cracks. To obtain these results, extensive tests were performed on laboratory specimens. Different empirical conditions were studied, such as various types of hot bituminous mixtures (AC, SMA and PA), differing thicknesses of asphalt and adhesions between layers, varied temperatures, surface textures, filling materials and water within the crack, different sensor positions, as well as an ample range of possible crack depths. The methods employed in the study are based on a series of measurements of ultrasonic pulse velocities or transmission times over a single accessible side or surface of the material that make it possible to obtain a signal transmission coefficient (relative or auto-calibrated readings). Measurements were taken at low frequencies by two short-pulse ultrasonic devices: one equipped with dry point contact transducers (DPC) and the other with flat contact transducers that require a specially-selected coupling material (CPC). In this way, some of the traditional inconveniences presented by the use of conventional transducers were overcome and a prior preparation of the surfaces was not required. The auto-compensating technique eliminated systematic errors and the need for previous local calibration, demonstrating the potential for this technology. The experimental results have been compared with simplified theoretical models that simulate ultrasonic wave propagation in cracked bituminous materials, which had been previously deduced using an analytical approach and have permitted the correct interpretation of the aforementioned empirical results. These models were subsequently calibrated using the laboratory results, providing generalized mathematical expressions and graphics for routine use in practical applications. Through a series of on-site ultrasound test campaigns, accompanied by asphalt core extraction, it was possible to evaluate the proposed models, with differences between predicted crack depths and those measured in situ lower than 13% (with a confidence level of 95%). Thereby, the criteria and the necessary recommendations for their implementation on in-service asphalt pavements have been established. The experience obtained through this study makes it possible to integrate this methodology into the evaluation techniques for pavement management systems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En un ejercicio no extenuante la frecuencia cardíaca (FC) guarda una relación lineal con el consumo máximo de oxígeno (V O2max) y se suele usar como uno de los parámetros de referencia para cuantificar la capacidad del sistema cardiovascular. Normalmente la frecuencia cardíaca puede remplazar el porcentaje de V O2max en las prescripciones básicas de ejercicio para la mejora de la resistencia aeróbica. Para obtener los mejores resultados en la mejora de la resistencia aeróbica, el entrenamiento de los individuos se debe hacer a una frecuencia cardíaca suficientemente alta, para que el trabajo sea de predominio dinámico con la fosforilación oxidativa como fuente energética primaria, pero no tan elevada que pueda suponer un riesgo de infarto de miocardio para el sujeto que se está entrenando. Los programas de entrenamiento de base mínima y de base óptima, con ejercicios de estiramientos para prevenir lesiones, son algunos de los programas más adecuados para el entrenamiento de la resistencia aeróbica porque maximizan los beneficios y minimizan los riesgos para el sistema cardiovascular durante las sesiones de entrenamiento. En esta tesis, se ha definido un modelo funcional para sistemas de inteligencia ambiental capaz de monitorizar, evaluar y entrenar las cualidades físicas que ha sido validado cuando la cualidad física es la resistencia aeróbica. El modelo se ha implementado en una aplicación Android utilizando la camiseta inteligente “GOW running” de la empresa Weartech. El sistema se ha comparado en el Laboratorio de Fisiología del Esfuerzo (LFE) de la Universidad Politécnica de Madrid (UPM) durante la realización de pruebas de esfuerzo. Además se ha evaluado un sistema de guiado con voz para los entrenamientos de base mínima y de base óptima. También el desarrollo del software ha sido validado. Con el uso de cuestionarios sobre las experiencias de los usuarios utilizando la aplicación se ha evaluado el atractivo de la misma. Por otro lado se ha definido una nueva metodología y nuevos tipos de cuestionarios diseñados para evaluar la utilidad que los usuarios asignan al uso de un sistema de guiado por voz. Los resultados obtenidos confirman la validez del modelo. Se ha obtenido una alta concordancia entre las medidas de FC hecha por la aplicación Android y el LFE. También ha resultado que los métodos de estimación del VO2max de los dos sistemas pueden ser intercambiables. Todos los usuarios que utilizaron el sistema de guiado por voz para entrenamientos de 10 base mínima y de base óptimas de la resistencia aeróbica consiguieron llevar a cabo las sesiones de entrenamientos con un 95% de éxito considerando unos márgenes de error de un 10% de la frecuencia cardíaca máxima teórica. La aplicación fue atractiva para los usuarios y hubo también una aceptación del sistema de guiado por voz. Se ha obtenido una evaluación psicológica positiva de la satisfacción de los usuarios que interactuaron con el sistema. En conclusión, se ha demostrado que es posible desarrollar sistemas de Inteligencia Ambiental en dispositivos móviles para la mejora de la salud. El modelo definido en la tesis es el primero modelo funcional teórico de referencia para el desarrollo de este tipo de aplicaciones. Posteriores estudios se realizarán con el objetivo de extender dicho modelo para las demás cualidades físicas que suponen modelos fisiológicos más complejos como por ejemplo la flexibilidad. Abstract In a non-strenuous exercise, the heart rate (HR) shows a linear relationship with the maximum volume of oxygen consumption (V O2max) and serves as an indicator of performance of the cardiovascular system. The heart rate replaces the %V O2max in exercise program prescription to improve aerobic endurance. In order to achieve an optimal effect during endurance training, the athlete needs to work out at a heart rate high enough to trigger the aerobic metabolism, while avoiding the high heart rates that bring along significant risks of myocardial infarction. The minimal and optimal base training programs, followed by stretching exercises to prevent injuries, are adequate programs to maximize benefits and minimize health risks for the cardiovascular system during single session training. In this thesis, we have defined an ambient intelligence system functional model that monitors, evaluates and trains physical qualities, and it has been validated for aerobic endurance. It is based on the Android System and the “GOW Running” smart shirt. The system has been evaluated during functional assessment stress testing of aerobic endurance in the Stress Physiology Laboratory (SPL) of the Technical University of Madrid (UPM). Furthermore, a voice system, designed to guide the user through minimal and optimal base training programs, has been evaluated. Also the software development has been evaluated. By means of user experience questionnaires, we have rated the attractiveness of the android application. Moreover, we have defined a methodology and a new kind of questionnaires in order to assess the user experience with the audio exercise guide system. The results obtained confirm the model. We have a high similarity between HR measurements made of our system and the one used by SPL. We have also a high correlation between the VO2max estimations of our system and the SPL system. All users, that tried the voice guidance system for minimal and optimal base training programs, were able to perform the 95% of the training session with an error lower than the 10% of theoretical maximum heart rate. The application appeared attractive to the users, and it has also been proven that the voice guidance system was useful. As result we obtained a positive evaluation of the users' satisfaction while they interacted with the system. In conclusion, it has been demonstrated that is possible to develop mobile Ambient Intelligence applications for the improvement of healthy lifestyle. AmIRTEM model is the first theoretical reference functional model for the design of this kind of applications. Further studies will be realized in order to extend the AmIRTEM model to other physical qualities whose physiological models are more complex than the aerobic endurance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las TIC cada vez tienen un mayor impacto social en el mundo de la enseñanza a distancia, están surgiendo nuevos conceptos relacionados con la forma de llevar el aprendizaje a las personas. La generación de contenidos supone una práctica costosa en tiempo, recursos y personas, es por eso la tendencia a que sean reutilizables, accesibles, portables y durables. Es aquí donde toman su importancia las píldoras formativas o de conocimiento, estando asociadas a un concepto y con una duración entre 5 y 15 minutos. Este trabajo pretende desarrollar píldoras formativas a modo de videos de corta duración sobre conceptos acústicos y guiones de prácticas de laboratorio tratados a lo largo del máster. Se desarrollará también a modo de videojuego el guión de una de las prácticas sirviendo como complemento a los videos. El trabajo se divide en dos partes bien diferenciadas, una de estudio teórico tanto de la tecnología para el desarrollo de los videos, que servirá de guía para futuras píldoras, como del contenido de éstos, y otra parte que tratará la implementación y adaptación de los videos y de los videojuegos. SUMMARY ICTs are becoming a greater social impact in the world of distance learning are emerging concepts related to learning how to take people. Content generation is a costly exercise in time, resources and people, is why the tendency to be reusable, accessible, portable and durable. This is where the importance of taking pills training or knowledge, being associated with a concept and with a duration between 5 and 15 minutes. This work aims to develop training pills as a short videos on concepts and scripts acoustic laboratory practices discussed during the Master. Also be developed as a script for a game of serving practices to supplement the videos. The work is divided into two distinct parts, a theoretical study of both the technology for the development of the videos, which will guide future pills, and the content of these, and another part that will address the implementation and adaptation of the videos and of video games.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El comportamiento de los materiales granulares almacenados en silos se ve afectado por varios parámetros, tanto aquellos característicos del material como de la geometría del silo. La determinación del coeficiente de rozamiento pared-partícula es uno de los parámetros de mayor importancia, siendo habituales en su determinación el uso de ensayos de corte directo. En el presente trabajo se estudia dicho coeficiente para el supuesto de una pared corrugada, el cual, teóricamente, debe representar a un valor efectivo que depende tanto del coeficiente de rozamiento grano-pared (para el caso de una pared lisa) y el ángulo de rozamiento interno del material. La determinación del rozamiento efectivo se ha realizado a través de la simulación por elementos discretos de un ensayo de corte sobre una pared corrugada. Los valores obtenidos han sido comparados con las prescripciones expuestas en la normativa vigente. La potencialidad del método de los elementos discretos permite el estudio de diversas configuraciones geométricas de la pared corrugada de los silos sin necesidad de realizar ensayos de laboratorio. Esto permitirá, en trabajos sucesivos, investigar la influencia de muy diversos factores en el valor del rozamiento efectivo grano-pared en este tipo de paredes. The mechanical behaviour of granular materials stored in silos is affected by numerous parameters, some of them being related to the characteristic of the stored materials and others to the geometry of the silo. The determination of the particle-wall friction coefficient (or wall friction) is of great importance and direct shear tests are usually conducted in order to obtain its value. In this work this variable is analysed for the case of a corrugated wall. This value is expected to be an effective value between the particle-wall friction coefficient (obtained for a flat wall) and the internal friction coefficient of the material under study. The effective wall friction determination has been carried out by using a discrete element model to simulate a direct shear test on a corrugated wall. The values obtained have been compared with prescriptions given in the current standards. The potential of the discrete element method allows different geometries of the silo corrugated wall to be considered without the necessity of developing laboratory tests. In future works it will allow the influence of numerous parameters on the effective wall friction in corrugated walls to be studied.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The figure of protection "micro-reserves" was created in the Region of Valencia (ANONYMOUS, 1994) with the aim of protecting endangered plant species. This is one of the areas of greatest floristic richness and uniqueness of the western Mediterranean. In this area rare, endemic or threatened vascular flora has a peculiar distribution: they appear to form small fragments spread over the entire region (LAGUNA, 1994; LAGUNA, 2001) The protection of every these small populations of great scientific value has significant challenges. It doesn´t try to protect every species that set out in Annex IV of the by then existing Law 4 / 1989 (repealed in 2007), or to protect to the most ecological level with the creation of Natural Protected Area but an intermediate level: the plant community of small size. According to the decree: “as Micro-Reserve will be declared the natural parcels of land under 20 hectares that contain a high concentration of rare plants, endemic, threatened or of high scientific interest” (ANONYMOUS, 1994) . Of course, the statement of an area as micro-reserve carries certain prohibitions that are harmful to the vegetal community