36 resultados para Arellano, Manuel Ramírez de-Últimas horas del Imperio
em Universidad Politécnica de Madrid
Resumo:
En este discurso de ingreso se destacó la importancia de la Mecánica de Materiales y el Modelado Matemático en Biomedicina y, en particular, se mostraron algunas aportaciones relacionadas con el comportamiento funcional de tejidos biológicos. Más en concreto se discutió la importancia de la transdisciplinariedad en la investigación actual y el papel que en esa búsqueda de un lenguaje común entre disciplinas tienen el modelado matemático y la simulación computacional.En particular, en la nueva Biomedicina basada en la evidencia, la interacción transdisciplinar es esencial, como lo demuestran resultados tan evidentes como los dispositivos e implantes inteligentes, las nuevas técnicas de imagen médica, la aparición de órganos artificiales o las crecientemente importantes técnicas de Ingeniería Tisular y Terapias Génica y Celular. Uno de los aspectos de creciente estudio en los últimos años es la epigenética, es decir, el estudio de la influencia del entorno específico de cada individuo en su respuesta biológica. Uno de estos estímulos externos, que se está constatando como fundamental, corresponde a las deformaciones, y ello en todas las escalas: molecular, celular, tisular y orgánica, dando lugar a una nueva subdisciplina: la Mecanobiología de creciente interés. En ella se acoplan los fenómenos mecánicos (movimiento, deformaciones, tensiones,..) con los biológicos (respuesta celular, expresión génica, adaptación tisular, regeneración y morfogénesis orgánica, etc.) y, en general, con otros campos físicos como la bioquímica o la electricidad también acoplados en los procesos de señalización y expresión celular. De nuevo el modelado multiescala y multifísico de estos problemas es esencial en su comprensión última y en el diseño de nuevas estrategias quirúrgicas, terapéuticas o de diagnostico. En este discurso se mostraron los problemas y posibilidades de estas metodologías y su aplicación en problemas tales como el diseño de implantes, la remodelación reparación y morfogénesis óseas, así como en la planificación preoperatoria y cirugía virtual.
Resumo:
Durante los años 60 fueron frecuentes las profecías que anunciaban jornadas laborales de 4-5 horas para el año 2000, y se basaban generalmente en la progresiva sustitución de la mano de obra por tecnología como las electrónicas y los sistemas aplicados; este cambio permitiría un mayor tiempo libre y de ocio. Sin embargo, la realidad parece resultar peor y contraria a esas expectativas, ya que la jornada de trabajo ha ido ampliándose en el sistema productivo simultáneamente con el avance tecnológico en general y, en particular, de las tecnologías de la información y la comunicación (TIC). El incremento de la jornada de trabajo es un proceso general observado en los países de la OCDE desde la transición de los años 1970/80 hasta hoy (en paralelo, precisamente, con la constante pérdida del poder adquisitivo de los salarios). Este artículo pone en relación la extensión de las TIC con la ampliación de la jornada de trabajo y añade, como nota negativa adicional, que el uso combinado del ordenador portátil y del teléfono móvil, en un entorno de Internet, se convierte en un proceso creciente por el que la gente queda laboralmente disponible durante las 24 horas del día.
Resumo:
La Región Metropolitana de Madrid (RMM) ha sufrido una gran transformación urbana en el periodo 1985-2007, en el cual ha crecido la población, ha crecido fuertemente el cuerpo físico, pero sobre todo han crecido su coste y su consumo, lo que supone que se ha vuelto más insostenible. Para tratar de comprender esta evolución asimétrica se ensayan sucesivos modelos que tratan de explicar la transformación de la realidad a través de la articulación de las formas de poder y sus políticas asociadas dentro del contexto local-metropolitano. Si se compara la transformación urbana en el periodo 1985-2007 respecto a la registrada durante el desarrollismo previo al presente periodo democrático, se encuentran similitudes, como el amplio consumo de suelo, pero el modelo desarrollista se inscribe en otras lógicas y tiene otros parámetros de contexto y es congruente ya que las últimas décadas del Régimen Franquista se caracterizan por un importantísimo aumento poblacional que se correspondía con el fuerte crecimiento industrial de la RMM. Esa congruencia relativa se pierde en el periodo estudiado, a pesar de que en 1985, se aprueba el Plan General de Ordenación Urbana de Madrid centrado en la ciudad existente y con un crecimiento contenido, y que puede considerarse un modelo abortado. Tras numerosas transformaciones políticas, económicas, sociales y urbanísticas se llega a una situación opuesta a la prevista en el citado Plan. Más de veinte años después, en 2007, se presentan no solo síntomas de agotamiento del modelo finalmente adoptado, sino su quiebra dramática tanto en su dimensión inmobiliario-financiera como del espacio del bienestar. Es precisamente la supresión de los mecanismos de regulación lo que ha caracterizado la evolución de los modelos urbanos, en correspondencia con la desregulación de las actividades económicas y de los flujos de capital propios del modelo "neoliberal". La actual crisis financiera internacional, en especial en algunos países periféricos europeos como España, ha demostrado cómo las políticas económicas que se han llevado a cabo, fuera de toda regulación, han resultado insostenibles. Pero no se trata solo de una crisis económica. En el caso español, de todas las dimensiones de la crisis, destaca la dimensión urbana, o el auge y caída del ciclo inmobiliario, debido a la urbanización intensiva del territorio en relación con el circuito secundario de la acumulación capitalista, habiendo tenido especial incidencia en algunos territorios como la RMM. En la Región Metropolitana de Madrid la situación actual es de crisis urbana, causada principalmente por el divorcio entre las necesidades y la producción de ciudad, pues no se ha basado el crecimiento en la creación de nuevos hogares, u otras cuestiones demográficas, sino en la acumulación de capital a través del crecimiento de la ciudad. Además, dicho crecimiento está conformado por una expansión urbana descontrolada, con mayores requerimientos energéticos que el modelo compacto y complejo tradicional, lo que unido a la escala de los procesos, supone un sistema urbano progresivamente ineficiente. El caso de la RMM resulta paradigmático, ya que la región ha desempeñado un papel como laboratorio de nuevas formas de gobierno y planificación que han dado un mayor protagonismo al espacio, que ha entrado en las dinámicas centrales principalmente por el apoyo al crecimiento físico, a la vez que han confluido circunstancias específicas, como un nuevo impulso al centralismo, lo que ha potenciado ciertas políticas, como considerar la ciudad como motor de crecimiento económico y de competitividad en el concierto europeo y mundial de ciudades. El estudio del papel de la planificación y sus crisis en la sucesión de los modelos, muestra su función nuclear en la propia constitución de estos —es parte fundamental de su aparato de regulación— y su valor no solo para poder entender el periodo, sino para poder proyectar otro futuro urbano. Este enfoque conduce a establecer la relación del planeamiento con las diferentes crisis económicas en el periodo de estudio lo que permite diferenciar tres momentos de dicha relación: la planificación urbanística austera bajo la influencia de la crisis fordista, la salida de la crisis a través de la imposición de un modelo urbano basado en el sobreproducción de espacio urbano, y la entrada en una crisis inmobiliaria y de financiarización en relación a la adopción de un modelo multidimensionalmente insostenible. El análisis de este periodo es la base para apuntar perspectivas que permitan transformar el gobierno urbano hacia un modelo urbano más deseable, o mejor aún, otros futuros posibles, que se enmarcan dentro de la alternativa principal que supone la sostenibilidad. Madrid's Metropolitan Region (MMR) has undergone a major urban transformation in the period 1985-2007, where the population has grown up, the built environment has grown strongly, but mostly its cost and consumption have grown, which means that it has become unsustainable. To try to understand this evolution successive asymmetric models are tested in order to explain the transformation of reality through the articulation of forms of power and its associated policies in that localmetropolitan context. Comparing the urban transformation in the period 1985-2007 to the existing during developmentalism in the current predemocratic period, both have similarities in terms of land consumption, but the previous developmentalism model is part of another logics and has got other context parameters. It is consistent since the last decades of the Franco Regime was characterized by an important population increase that corresponded to strong industrial growth of the MMR. This relative consistency is lost during the study period, although in 1985, with the approval of the Master Plan of Madrid that was focused on the existing city, with a limited growth, and it may be considered an interrupted model. After numerous political, economic, social and urban changes, there is the opposite situation to that foresight under that Plan. Over twenty years later, in 2007, there are not only signs of exhaustion of the model which was finally adopted, but also its dramatic collapse in both real estate and financial dimension of space as well. The urban transformation under analysis has relaunched the hegemony of the sectors that rule the growth of the Madrid's Metropolitan Region and it is supported by decision making and financing of the different administrations with the passivity of the social stakeholders and citizens. This has meant the removal of regulatory mechanisms that have characterized the evolution of urban models, corresponding to the deregulation of economic activities and capital flows according to "neoliberal" model. The current international financial crisis, especially in some European peripheral countries like Spain, has shown how economic policies that have been carried out, without any regulation, have proven unsustainable. But it is not only an economic crisis. In the Spanish case, of all the dimensions of the crisis, it is the urban dimension that is highlighted, or the rise and fall of real estate cycle, due to intensive urbanization of the territory in relation to the secondary circuit of capital accumulation, having had a particular impact in some territories such as the Madrid's Metropolitan Region. In Madrid's Metropolitan Region there is the current situation of urban crisis, mainly caused by the divorce between needs and the city (space) production, because no growth has been based on creating new homes, or other demographic issues, but in the capital accumulation through growth of the city. Furthermore, this growth is made up of urban sprawl, with higher energy requirements than the traditional compact and complex one, which together with the scale of processes, is increasingly an inefficient urban system. The case of Madrid's Metropolitan Region is paradigmatic, since the region has played a role as a laboratory for new forms of governance and planning have given a greater role to space, which has entered the core dynamics supported mainly by physical growth, while specific circumstances have come together as a new impulse to centralization. This has promoted policies such as considering the city as an engine of economic growth and competitiveness in the international and the European hierarchy of cities. The study of the role of planning and crisis in the succession of models, shows its nuclear role in the constitution of these models is a fundamental part of its regulatory apparatus- and also its value not only to understand the period, but to anticipate to other urban future. This approach leads to establish the relationship of planning with the various crises in the study period, allowing three different moments of that relationship: the austere urban planning under the influence of Fordist crisis, the output of the crisis through imposition of an urban model based on the overproduction of urban space, and entry into a housing crisis and financialisation in relation to the adoption of a multi-dimensionally unsustainable model. The analysis of this period is the basis for targeting prospects that translate urban governance towards a more desirable urban model, or better yet, other possible futures, which are part of the main alternative that is sustainability.
Resumo:
Las dinámicas de reorganización de la producción y las transformaciones económicas determinaron la crisis de gran parte de las regiones industriales de Europa y Estados Unidos en las últimas décadas del siglo XX. Ante la persistencia e intensidad del declive de muchas de ellas, cabe preguntarse, ¿existen futuros para la ciudad industrial? O, en otras palabras, ¿es el declive un proceso irreversible? La incidencia dispar del declive así como la gradual regeneración de algunas regiones industriales en los últimos años parece apuntar hacia cierta capacidad de respuesta local ante unas dinámicas de escala global. Las múltiples trayectorias de las regiones de base industrial tan sólo parecen poder explicarse desde su singularidad. La presente tesis doctoral tiene por objeto analizar las posibilidades de orientar los procesos de deterioro urbano de las regiones industriales y examinar la capacidad de la planificación de intervenir sobre ellos a través de dos estudios de caso, El modo de abordar el análisis, estudiar la ciudad en evolución, debería proporcionar una mejor comprensión de las repercusiones del modelo de crecimiento de cada ciudad sobre su posterior declive y resaltar la influencia de las decisiones políticas y espaciales de cada etapa en el desarrollo futuro del territorio. Analizar la evolución de dos regiones industriales extremadamente diferentes dará la oportunidad de investigar, en primer lugar, uno de los casos paradigmáticos de deterioro urbano, Detroit y, tras haberse interrogado sobre las causas específicas de la persistencia y duración de su declive, estudiar la evolución urbana de la región de Nantes – Saint-Nazaire para comprender la singularidad de su regeneración tras años de estancamiento. El análisis de estos territorios debería permitir progresar en el conocimiento de los procesos de declive, comparar las diferentes estrategias y modelos urbanos, comprender las diferencias entre ellos e interrogarnos sobre la posibilidad de orientar los procesos de deterioro urbano. Las respuestas de este análisis quizás nos ayuden a afirmar la existencia de futuros múltiples para la ciudad industrial. Global dynamics such as economic transformations and reorganizations of production led to the crisis of most industrial cities in Europe and the U.S in the last decades of the 20th century. Most of them have suffered or are still suffering the consequences of urban decay and shrinkage. Given the severity and persistence of some of these processes, a significant question may be raised: are there alternative futures for former industrial cities? Or is urban decay an irreversible process? Nevertheless, the diverse evolution of these cities, as well as the gradual restructuring of some of them in recent years, seem to point toward the relevance of local response to these global dynamics. The different paths of development of industrial cities since 1970s may only be explained by their singularity and specific local conditions. This research aims to examine possibilities to guide urban decline and shrinkage in former industrial regions and to analyze the ability of urban planning to intervene in these processes through two case studies. The method of research, exploring cities in evolution, should provide a greater understanding of the effects of different modes of development during the city’s heyday on its subsequent shrinkage. Likewise, it should highlight the influence of each period’s local decisions on the future trajectory of the city. The evolutive analysis of two extremely different industrial regions will give us, first, the opportunity to study a paradigm of urban decay, Detroit, by exploring over time the specific causes of its decline’s prevalence. In the second place, we will be able to study Nantes - Saint-Nazaire region, examining the distinctiveness of its recent restructuring after years of shrinkage and stagnation. Through these examples, we would be able to analyze the consequences of decision-making on the evolution of each city. It should also let us compare diverse strategies and enable us to question the ability of planning to tackle decay. The conclusions of the analysis may help us to assert the existence of alternative futures for industrial cities.
Resumo:
Al considerar los mecanismos de unión entre dos elementos, metálicos o no, es cada vez más habitual referirse a la adhesión. El término adhesión se refiere a un complejo conjunto de fenómenos relacionados entre sí que están lejos de ser completamente entendidos y, por lo tanto, tiene sentido considerar la conveniencia de cualquier intento de predecir el comportamiento mediante el uso de métodos semi-empíricos. El empleo de adhesivos en las uniones entre materiales iguales o diferentes es un hecho que se ha implantado como sistema de unión en diferentes campos, tales como la industria metalúrgica, la industria de los medios de transporte (aviación, automóvil, transportes de viajeros por carretera urbanos e interurbanos, industria naval y, en los últimos años, transporte ferroviario), la electrónica y comunicaciones, la biomecánica, la nanotecnología, etc. Las funciones del adhesivo en la unión pueden ser variadas: desde soportar esfuerzos mecánicos, como lo hacen los materiales que une -adhesivos estructurales-, a, simplemente, dar continuidad a un objeto o a actuar como sellado y protección de un conjunto electrónico, con funciones aislantes o incluso conductoras. En todos los casos, el adhesivo realiza su función uniendo superficies. El estudio de cómo es y cómo se comporta esa superficie es fundamental para poder definir y diseñar los parámetros más adecuados de los elementos que participan en la unión. Pero el concepto de superficie no queda bien definido si no lo están sus características: así, la rugosidad, la energía superficial o la estructura y orientación cristalina van a definir el resultado final, junto con las propiedades del adhesivo empleado. Se ha comprobado que un tratamiento superficial realizado sobre un sustrato, puede realizar cambios superficiales no sólo a nivel topográfico, sino también a nivel químico y/o microestructural, lo que podría modificar la energía superficial del sustrato. En ensayos realizados en el propio laboratorio, se ha detectado que en casos en los que los valores de la rugosidad obtenida es la misma, la energía superficial del sustrato es diferente dependiendo del tipo de ataque, para la misma aleación del material. Se podría deducir, a priori, que la modificación cristalográfica conseguida influye, además de en la rugosidad, en las características termodinámicas de la misma. Si bien es cierto que la relación entre la rugosidad y la fuerza de adhesión ha sido ampliamente estudiada, la influencia de diferentes tipos de tratamientos superficiales, tanto en la rugosidad como en las características termodinámicas y en las fuerzas de adhesión, es un tema que produce discrepancias en diferentes autores. No todos los autores o investigadores en los mecanismos de la adhesión ven de igual manera la influencia de una u otra característica de la superficie, ni la posibilidad de aplicación de uno u otro criterio de valorización. Por otra parte, un factor de vital importancia en una buena adhesión es la viscosidad del adhesivo y su velocidad de curado. La aplicación de un adhesivo sobre el adherente implica que, si no hay una buena relación entre las energías superficiales de uno y otro, es decir si no se produce un buen mojado, la capacidad de penetración del adhesivo en los poros o microporos del adherente se reduce de forma sinérgica con la velocidad de curado del adhesivo, es decir, con el aumento de viscosidad. Los adhesivos presentan propiedades reológicas muy diferentes antes y después de su curado. En el momento de su aplicación se comportan como fluidos cuyo comportamiento reológico afecta, entre otras, a características tales como la procesabilidad, su ámbito de uso, la dosificación o la capacidad de relleno de holgura. Antes del curado, deben ser fluidos capaces de ser transportados hasta la superficie del sustrato y copiar su superficie realizando un buen mojado. Según va produciéndose el curado del adhesivo, éste va aumentando su viscosidad hasta comportarse como un sólido; una vez completado el curado, los adhesivos han de presentar propiedades mecánicas adecuadas a los requisitos de ensamblaje. En adhesión, la medida en la que un adhesivo es capaz de impregnar la superficie del sustrato sobre el cual se desea realizar la unión, realizar un contacto interfacial intimo y una buena penetración en las oquedades y rugosidades superficiales del sólido, se denomina mojado. Para que la adhesión sea buena, es condición indispensable que el mojado del sustrato por el adhesivo sea bueno. Para el estudio y cuantificación del mojado se utilizan medidas del ángulo de contacto que forma una gota de adhesivo depositada en el sólido tras esperar a que el sistema alcance el equilibrio. Dado el interés que tiene lo que ocurre en la interfase para alcanzar un mayor conocimiento de los procesos de adhesión, el objetivo principal de esta tesis es caracterizar morfológicamente la superficie de un adherente de aluminio para determinar la influencia que tiene en los parámetros que definen la unión adhesiva. Para ello se han marcado unos objetivos parciales que, fundamentalmente, son: • Caracterizar la superficie de un sustrato (aluminio) sometido a diferentes tratamientos superficiales, tanto mecánicos como químicos • Determinar la energía superficial del mismo sustrato después de los tratamientos superficiales mediante la medida de los ángulos de mojado • Analizar la influencia de la viscosidad en el mojado del sustrato, en función de la rugosidad • Determinar la aplicabilidad de la ecuación de Wenzel en función de la magnitud de la rugosidad • Validar los resultados de las características superficiales mediante la realización de ensayos de tracción Para alcanzar estos objetivos, se han empleado nueve tipos diferentes de tratamientos, en los que se ha buscado la obtención de muy diferentes acabados superficiales, razón por la que no todos los tratamientos que se han utilizado son de aplicación actual en la industria. Los tratamientos mecánicos han sido abrasivos de dos clases: • por rozamiento (Pulido y lijado con dos granulometrías diferentes) y • por impacto (Granallado y LSP) Los ataques químicos han sido, también, de dos tipos • Ácidos (HCl en dos concentraciones diferentes) y • Básicos (NaOH en dos concentraciones distintas) La caracterización superficial se ha realizado con el estudio de los parámetros de rugosidad superficiales, definidos en la normativa de rugosidad 3D, y con el estudio derivado de los análisis de la superficie por transformadas de Fourier La energía superficial se ha realizado mediante dos métodos: la determinación de la energía crítica, γc, por el método de Zisman y el cálculo de las componentes polar y dispersiva de la energía superficial mediante la aproximación de van Oss, Chaudhury y Good. Como estudio paralelo, se ha ensayado el efecto de la viscosidad del adhesivo y su velocidad de curado sobre unas muestras de aluminio con rugosidades diferentes. El estudio finaliza con las conclusiones que relacionan el tratamiento superficial y su influencia en el proceso de la adhesión, teniendo como elemento de referencia el efecto producido en las características topográficas y termodinámicas de la superficie.
Resumo:
El presente Trabajo de Fin de Grado (TFG) se enmarca dentro del proyecto AFRICA BUILD. Dicho proyecto tiene como objetivo principal fomentar la investigación y fortalecer las capacidades de cuatro centros de educación superior en África a través de las TIC. Para cumplir este objetivo se ha diseñado el sistema AFRICA BUILD Portal (ABP). El ABP consiste en una solución web basada en “e-learning” para estudiantes, profesores e investigadores dentro del continente africano. El objetivo de este TFG consiste en ampliar la accesibilidad y el uso del portal a través de dispositivos móviles. La solución propuesta en este TFG consiste en el desarrollo de dos soluciones que complementan el ABP: (I) una capa de servicios web para el portal y (II) la versión App para dispositivos móviles del mismo. Cabe destacar la relación existente entre ambas soluciones ya que la segunda necesita de la primera para poder funcionar y comunicarse así con el portal.
Resumo:
Recent commentaries have proposed the advantages of using open exchange of data and informatics resources for improving health-related policies and patient care in Africa. Yet, in many African regions, both private medical and public health information systems are still unaffordable. Open exchange over the social Web 2.0 could encourage more altruistic support of medical initiatives. We have carried out some experiments to demonstrate the feasibility of using this approach to disseminate open data and informatics resources in Africa. After the experiments we developed the AFRICA BUILD Portal, the first Social Network for African biomedical researchers. Through the AFRICA BUILD Portal users can access in a transparent way to several resources. Currently, over 600 researchers are using distributed and open resources through this platform committed to low connections.
Resumo:
Hoy en día el exceso de información en Internet se puede convertir en una desventaja a la hora de buscar determinada información. El objetivo de la plataforma que presento es facilitar el acceso a esta información, en concreto, al grado de conocimiento de las empresas, sobre todo las startups o emergentes en Internet. Pensada para micro-inversores que quieres participar en un proyecto ilusionante y con futuro pueden utilizar la aplicación para conocer qué empresa tiene más probabilidades de triunfar por que ya lleva parte del camino andado y es conocida dentro de las redes sociales y páginas especializadas. Para conseguir ese conocimiento vamos a dar una calificación numérica al posicionamiento de esa empresa en las principales redes sociales, donde, mediante su API, obtenemos la información más relevante para posteriormente calificar con unos criterios a gusto del inversor, es decir, según la importancia que quiera darle a cada una. Además alimentaremos la aplicación con los artículos publicados en las páginas especializadas para que los usuarios puedan informarse de las últimas novedades del sector, puedan comentarlas e incluso añadir sus propios artículos. Programando nuestro propio Crawler o araña, visitaremos esas páginas de forma ordenada adquiriendo todos los links y descargando los artículos para guardarlos en nuestra aplicación. Aprovechándonos de esta funcionalidad vamos a pasar un buscador semántico para analizar todos esos artículos y medir si la empresa es nombrada y conocida en estas páginas especializadas. Dando un valor numérico a esas menciones y añadiéndolo a la puntuación antes mencionada. Como extra se añade el módulo de Ideas, destinado a esas ideas que se encuentran en la primera fase de desarrollo y que buscan inversión o ayuda de la comunidad para prosperar. Con la base en el gestor de contenidos DRUPAL que nos ayuda a dar facilidades a los usuarios por sus sencillas y completas interfaces gráficas, desarrollamos el proyecto en PHP con MySql
Resumo:
Los Centros de Datos se encuentran actualmente en cualquier sector de la economía mundial. Están compuestos por miles de servidores, dando servicio a los usuarios de forma global, las 24 horas del día y los 365 días del año. Durante los últimos años, las aplicaciones del ámbito de la e-Ciencia, como la e-Salud o las Ciudades Inteligentes han experimentado un desarrollo muy significativo. La necesidad de manejar de forma eficiente las necesidades de cómputo de aplicaciones de nueva generación, junto con la creciente demanda de recursos en aplicaciones tradicionales, han facilitado el rápido crecimiento y la proliferación de los Centros de Datos. El principal inconveniente de este aumento de capacidad ha sido el rápido y dramático incremento del consumo energético de estas infraestructuras. En 2010, la factura eléctrica de los Centros de Datos representaba el 1.3% del consumo eléctrico mundial. Sólo en el año 2012, el consumo de potencia de los Centros de Datos creció un 63%, alcanzando los 38GW. En 2013 se estimó un crecimiento de otro 17%, hasta llegar a los 43GW. Además, los Centros de Datos son responsables de más del 2% del total de emisiones de dióxido de carbono a la atmósfera. Esta tesis doctoral se enfrenta al problema energético proponiendo técnicas proactivas y reactivas conscientes de la temperatura y de la energía, que contribuyen a tener Centros de Datos más eficientes. Este trabajo desarrolla modelos de energía y utiliza el conocimiento sobre la demanda energética de la carga de trabajo a ejecutar y de los recursos de computación y refrigeración del Centro de Datos para optimizar el consumo. Además, los Centros de Datos son considerados como un elemento crucial dentro del marco de la aplicación ejecutada, optimizando no sólo el consumo del Centro de Datos sino el consumo energético global de la aplicación. Los principales componentes del consumo en los Centros de Datos son la potencia de computación utilizada por los equipos de IT, y la refrigeración necesaria para mantener los servidores dentro de un rango de temperatura de trabajo que asegure su correcto funcionamiento. Debido a la relación cúbica entre la velocidad de los ventiladores y el consumo de los mismos, las soluciones basadas en el sobre-aprovisionamiento de aire frío al servidor generalmente tienen como resultado ineficiencias energéticas. Por otro lado, temperaturas más elevadas en el procesador llevan a un consumo de fugas mayor, debido a la relación exponencial del consumo de fugas con la temperatura. Además, las características de la carga de trabajo y las políticas de asignación de recursos tienen un impacto importante en los balances entre corriente de fugas y consumo de refrigeración. La primera gran contribución de este trabajo es el desarrollo de modelos de potencia y temperatura que permiten describes estos balances entre corriente de fugas y refrigeración; así como la propuesta de estrategias para minimizar el consumo del servidor por medio de la asignación conjunta de refrigeración y carga desde una perspectiva multivariable. Cuando escalamos a nivel del Centro de Datos, observamos un comportamiento similar en términos del balance entre corrientes de fugas y refrigeración. Conforme aumenta la temperatura de la sala, mejora la eficiencia de la refrigeración. Sin embargo, este incremente de la temperatura de sala provoca un aumento en la temperatura de la CPU y, por tanto, también del consumo de fugas. Además, la dinámica de la sala tiene un comportamiento muy desigual, no equilibrado, debido a la asignación de carga y a la heterogeneidad en el equipamiento de IT. La segunda contribución de esta tesis es la propuesta de técnicas de asigación conscientes de la temperatura y heterogeneidad que permiten optimizar conjuntamente la asignación de tareas y refrigeración a los servidores. Estas estrategias necesitan estar respaldadas por modelos flexibles, que puedan trabajar en tiempo real, para describir el sistema desde un nivel de abstracción alto. Dentro del ámbito de las aplicaciones de nueva generación, las decisiones tomadas en el nivel de aplicación pueden tener un impacto dramático en el consumo energético de niveles de abstracción menores, como por ejemplo, en el Centro de Datos. Es importante considerar las relaciones entre todos los agentes computacionales implicados en el problema, de forma que puedan cooperar para conseguir el objetivo común de reducir el coste energético global del sistema. La tercera contribución de esta tesis es el desarrollo de optimizaciones energéticas para la aplicación global por medio de la evaluación de los costes de ejecutar parte del procesado necesario en otros niveles de abstracción, que van desde los nodos hasta el Centro de Datos, por medio de técnicas de balanceo de carga. Como resumen, el trabajo presentado en esta tesis lleva a cabo contribuciones en el modelado y optimización consciente del consumo por fugas y la refrigeración de servidores; el modelado de los Centros de Datos y el desarrollo de políticas de asignación conscientes de la heterogeneidad; y desarrolla mecanismos para la optimización energética de aplicaciones de nueva generación desde varios niveles de abstracción. ABSTRACT Data centers are easily found in every sector of the worldwide economy. They consist of tens of thousands of servers, serving millions of users globally and 24-7. In the last years, e-Science applications such e-Health or Smart Cities have experienced a significant development. The need to deal efficiently with the computational needs of next-generation applications together with the increasing demand for higher resources in traditional applications has facilitated the rapid proliferation and growing of data centers. A drawback to this capacity growth has been the rapid increase of the energy consumption of these facilities. In 2010, data center electricity represented 1.3% of all the electricity use in the world. In year 2012 alone, global data center power demand grew 63% to 38GW. A further rise of 17% to 43GW was estimated in 2013. Moreover, data centers are responsible for more than 2% of total carbon dioxide emissions. This PhD Thesis addresses the energy challenge by proposing proactive and reactive thermal and energy-aware optimization techniques that contribute to place data centers on a more scalable curve. This work develops energy models and uses the knowledge about the energy demand of the workload to be executed and the computational and cooling resources available at data center to optimize energy consumption. Moreover, data centers are considered as a crucial element within their application framework, optimizing not only the energy consumption of the facility, but the global energy consumption of the application. The main contributors to the energy consumption in a data center are the computing power drawn by IT equipment and the cooling power needed to keep the servers within a certain temperature range that ensures safe operation. Because of the cubic relation of fan power with fan speed, solutions based on over-provisioning cold air into the server usually lead to inefficiencies. On the other hand, higher chip temperatures lead to higher leakage power because of the exponential dependence of leakage on temperature. Moreover, workload characteristics as well as allocation policies also have an important impact on the leakage-cooling tradeoffs. The first key contribution of this work is the development of power and temperature models that accurately describe the leakage-cooling tradeoffs at the server level, and the proposal of strategies to minimize server energy via joint cooling and workload management from a multivariate perspective. When scaling to the data center level, a similar behavior in terms of leakage-temperature tradeoffs can be observed. As room temperature raises, the efficiency of data room cooling units improves. However, as we increase room temperature, CPU temperature raises and so does leakage power. Moreover, the thermal dynamics of a data room exhibit unbalanced patterns due to both the workload allocation and the heterogeneity of computing equipment. The second main contribution is the proposal of thermal- and heterogeneity-aware workload management techniques that jointly optimize the allocation of computation and cooling to servers. These strategies need to be backed up by flexible room level models, able to work on runtime, that describe the system from a high level perspective. Within the framework of next-generation applications, decisions taken at this scope can have a dramatical impact on the energy consumption of lower abstraction levels, i.e. the data center facility. It is important to consider the relationships between all the computational agents involved in the problem, so that they can cooperate to achieve the common goal of reducing energy in the overall system. The third main contribution is the energy optimization of the overall application by evaluating the energy costs of performing part of the processing in any of the different abstraction layers, from the node to the data center, via workload management and off-loading techniques. In summary, the work presented in this PhD Thesis, makes contributions on leakage and cooling aware server modeling and optimization, data center thermal modeling and heterogeneityaware data center resource allocation, and develops mechanisms for the energy optimization for next-generation applications from a multi-layer perspective.
Resumo:
La energía transportada por el oleaje a través de los océanos (energía undimotriz) se enmarca dentro de las denominadas energías oceánicas. Su aprovechamiento para generar energía eléctrica (o ser aprovechada de alguna otra forma) es una idea reflejada ya hace más de dos siglos en una patente (1799). Desde entonces, y con especial intensidad desde los años 70, ha venido despertando el interés de instituciones ligadas al I+D+i y empresas del sector energético y tecnológico, debido principalmente a la magnitud del recurso disponible. Actualmente se puede considerar al sector en un estado precomercial, con un amplio rango de dispositivos y tecnologías en diferente grado de desarrollo en los que ninguno destaca sobre los otros (ni ha demostrado su viabilidad económica), y sin que se aprecie una tendencia a converger un único dispositivo (o un número reducido de ellos). El recurso energético que se está tratando de aprovechar, pese a compartir la característica de no-controlabilidad con otras fuentes de energía renovable como la eólica o la solar, presenta una variabilidad adicional. De esta manera, diferentes localizaciones, pese a poder presentar recursos de contenido energético similar, presentan oleajes de características muy diferentes en términos de alturas y periodos de oleaje, y en la dispersión estadística de estos valores. Esta variabilidad en el oleaje hace que cobre especial relevancia la adecuación de los dispositivos de aprovechamiento de energía undimotriz (WEC: Wave Energy Converter) a su localización, de cara a mejorar su viabilidad económica. Parece razonable suponer que, en un futuro, el proceso de diseño de un parque de generación undimotriz implique un rediseño (en base a una tecnología conocida) para cada proyecto de implantación en una nueva localización. El objetivo de esta tesis es plantear un procedimiento de dimensionado de una tecnología de aprovechamiento de la energía undimotriz concreta: los absorbedores puntuales. Dicha metodología de diseño se plantea como un problema de optimización matemático, el cual se resuelve utilizando un algoritmo de optimización bioinspirado: evolución diferencial. Este planteamiento permite automatizar la fase previa de dimensionado implementando la metodología en un código de programación. El proceso de diseño de un WEC es un problema de ingería complejo, por lo que no considera factible el planteamiento de un diseño completo mediante un único procedimiento de optimización matemático. En vez de eso, se platea el proceso de diseño en diferentes etapas, de manera que la metodología desarrollada en esta tesis se utilice para obtener las dimensiones básicas de una solución de referencia de WEC, la cual será utilizada como punto de partida para continuar con las etapas posteriores del proceso de diseño. La metodología de dimensionado previo presentada en esta tesis parte de unas condiciones de contorno de diseño definidas previamente, tales como: localización, características del sistema de generación de energía eléctrica (PTO: Power Take-Off), estrategia de extracción de energía eléctrica y concepto concreto de WEC). Utilizando un algoritmo de evolución diferencial multi-objetivo se obtiene un conjunto de soluciones factibles (de acuerdo con una ciertas restricciones técnicas y dimensionales) y óptimas (de acuerdo con una serie de funciones objetivo de pseudo-coste y pseudo-beneficio). Dicho conjunto de soluciones o dimensiones de WEC es utilizado como caso de referencia en las posteriores etapas de diseño. En el documento de la tesis se presentan dos versiones de dicha metodología con dos modelos diferentes de evaluación de las soluciones candidatas. Por un lado, se presenta un modelo en el dominio de la frecuencia que presenta importantes simplificaciones en cuanto al tratamiento del recurso del oleaje. Este procedimiento presenta una menor carga computacional pero una mayor incertidumbre en los resultados, la cual puede traducirse en trabajo adicional en las etapas posteriores del proceso de diseño. Sin embargo, el uso de esta metodología resulta conveniente para realizar análisis paramétricos previos de las condiciones de contorno, tales como la localización seleccionada. Por otro lado, la segunda metodología propuesta utiliza modelos en el domino estocástico, lo que aumenta la carga computacional, pero permite obtener resultados con menos incertidumbre e información estadística muy útil para el proceso de diseño. Por este motivo, esta metodología es más adecuada para su uso en un proceso de dimensionado completo de un WEC. La metodología desarrollada durante la tesis ha sido utilizada en un proyecto industrial de evaluación energética preliminar de una planta de energía undimotriz. En dicho proceso de evaluación, el método de dimensionado previo fue utilizado en una primera etapa, de cara a obtener un conjunto de soluciones factibles de acuerdo con una serie de restricciones técnicas básicas. La selección y refinamiento de la geometría de la solución geométrica de WEC propuesta fue realizada a posteriori (por otros participantes del proyecto) utilizando un modelo detallado en el dominio del tiempo y un modelo de evaluación económica del dispositivo. El uso de esta metodología puede ayudar a reducir las iteraciones manuales y a mejorar los resultados obtenidos en estas últimas etapas del proyecto. ABSTRACT The energy transported by ocean waves (wave energy) is framed within the so-called oceanic energies. Its use to generate electric energy (or desalinate ocean water, etc.) is an idea expressed first time in a patent two centuries ago (1799). Ever since, but specially since the 1970’s, this energy has become interesting for R&D institutions and companies related with the technological and energetic sectors mainly because of the magnitude of available energy. Nowadays the development of this technology can be considered to be in a pre-commercial stage, with a wide range of devices and technologies developed to different degrees but with none standing out nor economically viable. Nor do these technologies seem ready to converge to a single device (or a reduce number of devices). The energy resource to be exploited shares its non-controllability with other renewable energy sources such as wind and solar. However, wave energy presents an additional short-term variability due to its oscillatory nature. Thus, different locations may show waves with similar energy content but different characteristics such as wave height or wave period. This variability in ocean waves makes it very important that the devices for harnessing wave energy (WEC: Wave Energy Converter) fit closely to the characteristics of their location in order to improve their economic viability. It seems reasonable to assume that, in the future, the process of designing a wave power plant will involve a re-design (based on a well-known technology) for each implementation project in any new location. The objective of this PhD thesis is to propose a dimensioning method for a specific wave-energy-harnessing technology: point absorbers. This design methodology is presented as a mathematical optimization problem solved by using an optimization bio-inspired algorithm: differential evolution. This approach allows automating the preliminary dimensioning stage by implementing the methodology in programmed code. The design process of a WEC is a complex engineering problem, so the complete design is not feasible using a single mathematical optimization procedure. Instead, the design process is proposed in different stages, so the methodology developed in this thesis is used for the basic dimensions of a reference solution of the WEC, which would be used as a starting point for the later stages of the design process. The preliminary dimensioning methodology presented in this thesis starts from some previously defined boundary conditions such as: location, power take-off (PTO) characteristic, strategy of energy extraction and specific WEC technology. Using a differential multi-objective evolutionary algorithm produces a set of feasible solutions (according to certain technical and dimensional constraints) and optimal solutions (according to a set of pseudo-cost and pseudo-benefit objective functions). This set of solutions or WEC dimensions are used as a reference case in subsequent stages of design. In the document of this thesis, two versions of this methodology with two different models of evaluation of candidate solutions are presented. On the one hand, a model in the frequency domain that has significant simplifications in the treatment of the wave resource is presented. This method implies a lower computational load but increased uncertainty in the results, which may lead to additional work in the later stages of the design process. However, use of this methodology is useful in order to perform previous parametric analysis of boundary conditions such as the selected location. On the other hand, the second method uses stochastic models, increasing the computational load, but providing results with smaller uncertainty and very useful statistical information for the design process. Therefore, this method is more suitable to be used in a detail design process for full dimensioning of the WEC. The methodology developed throughout the thesis has been used in an industrial project for preliminary energetic assessment of a wave energy power plant. In this assessment process, the method of previous dimensioning was used in the first stage, in order to obtain a set of feasible solutions according to a set of basic technical constraints. The geometry of the WEC was refined and selected subsequently (by other project participants) using a detailed model in the time domain and a model of economic evaluation of the device. Using this methodology can help to reduce the number of design iterations and to improve the results obtained in the last stages of the project.
Resumo:
La Mezquita-Catedral de Córdoba es un edificio vivo. Un edificio que ha sido transformado sucesivamente por hombres de razas, culturas y religiones distintas durante sus más de 1.200 años de vida y que, a pesar de ello, no ha dejado de estar en uso ni uno solo de esos días de esa larga vida. De esta forma, el edificio se muestra ante el visitante como un complejo objeto arquitectónico, resultado de una continua transformación. La capacidad de la transformación de los edificios es algo inherente a su propia condición arquitectónica, no es un hecho exclusivo de la Mezquita-Catedral. Sin embargo, en este edificio esa transformación se produce con una gran intensidad y sin pérdida de su autenticidad. Tradicionalmente, los edificios se han adaptado a los nuevos requerimientos de cada época en un proceso que ha buscado en el propio edificio las leyes o principios que habían de regir la intervención. De esta forma, tanto las sucesivas ampliaciones de la Mezquita de Abd al-Rahman I como las siguientes intervenciones cristianas debieron asumir lo preexistente como material de trabajo. Así, los arquitectos del califa al-Hakam II dialogaron con sus antecesores complejizando el espacio que recibieron, así como los Hernán Ruiz consiguieron un nuevo organismo resultante de la introducción de su arquitectura luminosa en la trama hispanomusulmana. El siglo XIX confirmó el deseo por descubrir las huellas de un pasado esplendoroso que la intervención barroca había silenciado bajo un tratamiento homogéneo del espacio. La recuperación de esas huellas supuso, hace exactamente dos siglos, el inicio de la última gran etapa en la transformación del edificio, la de la restauración. La fábrica es considerada como objeto a conservar y los esfuerzos desde ese momento se centraron en la recuperación de la arquitectura omeya latente. De este modo, la práctica de la restauración como disciplina se encontró absolutamente influenciada por la Arqueología como única fuente de conocimiento. Las intervenciones buscaban lo original como modo de recuperar espacial y formalmente aquel pasado, concentrándose en los lugares del edificio considerados como esenciales. La declaración del edificio como monumento nacional en 1882 propició que el Estado se hiciera cargo de su mantenimiento y conservación, sustituyendo en esa tarea a los Obispos y Cabildos del siglo XIX, que tuvieron un entendimiento muy avanzado para su época. La llegada del arquitecto Velázquez Bosco en las últimas décadas del siglo XIX supuso un cambio trascendental en la historia del edificio, puesto que recibió un edificio con importantes deterioros y consiguió poner las bases del edificio que hoy contemplamos. El empeño por la recuperación material y espacial devolvió a la Mezquita-Catedral buena parte de su imagen original, reproduciendo con exactitud los modelos hallados en las exploraciones arqueológicas. La llegada de Antonio Flórez tras la muerte de Velázquez Bosco supuso la traslación al edificio del debate disciplinar que se desarrolló en las dos primeras décadas del siglo XX. Flórez procuró un nuevo entendimiento de la intervención, considerando la conservación como actuación prioritaria. En 1926 el Estado reformó la manera en que se atendía al patrimonio con la creación de un sistema de zonas y unos arquitectos a cargo de ellas. La existencia de un nuevo marco legislativo apuntaló esa nueva visión conservativa, avalada por la Carta de Atenas de 1931. Este modelo restauración científica huía de la intervención en estilo y valoraba la necesidad de intervenir de la manera más escueta posible y con un lenguaje diferenciado, basándose en los datos que ofrecía la Arqueología. Por tanto, se continuaba con la valoración del edificio como documento histórico, buscando en este caso una imagen diferenciada de la intervención frente a la actitud mimética de Velázquez. Resulta destacable la manera en la que el historiador Manuel Gómez-Moreno influyó en varias generaciones de arquitectos, arqueólogos e historiadores, tanto en el entendimiento científico de la restauración como en la propia estructura administrativa. La labor desarrollada en el edificio por José Mª Rodríguez Cano primero y Félix Hernández a continuación estuvo influida de manera teórica por el método de Gómez-Moreno, aunque en muchos aspectos su labor no representó una gran diferencia con lo hecho por Velázquez Bosco. La búsqueda de lo original volvió a ser recurrente, pero la carga económica del mantenimiento de un edificio tan extenso conllevó la no realización de muchos de los proyectos más ambiciosos. Esta obsesiva búsqueda de la imagen original del edificio tuvo su última y anacrónica etapa con la intervención de la Dirección General de Arquitectura en los 70. Sin embargo, el agotamiento del modelo científico ya había propiciado un nuevo escenario a nivel europeo, que cristalizó en la Carta de Venecia de 1964 y en una nueva definición del objeto a preservar, más allá del valor como documento histórico. Esta nueva posición teórica tuvo su traslación al modelo restaurador español en el último cuarto de siglo XX, coincidiendo con la Transición. El arquitecto Dionisio Hernández Gil defendió una interpretación distinta a la de los arqueólogos y de los historiadores, que había prevalecido durante todo el siglo. En opinión de Hernández Gil, los problemas de intervención debían enfocarse fundamentalmente como problemas de Arquitectura, abandonando la idea de que solamente podían ser resueltos por especialistas. Esta convicción teórica fue defendida desde la nueva Administración y deparó la utilización de unos criterios de intervención particularizados, provenientes del análisis multifocal de cada situación y no sólo desde el valor de los edificios como documentos históricos. Y este cambio tuvo su traslación a la Mezquita-Catedral con la práctica de Gabriel Ruiz Cabrero y Gabriel Rebollo. En consecuencia con esa nueva perspectiva, aceptaron el edificio que recibieron, sustituyendo la búsqueda de aquella página original por la aceptación de cada una de las páginas de su historia y el respeto a las técnicas constructivas del pasado. La búsqueda de soluciones específicas desde el propio objeto arquitectónico significó la renovada atención a la potente estructura formal-constructiva como origen de toda reflexión. Considerar la Mezquita-Catedral en primer lugar como Arquitectura implicaba la atención a todo tipo de factores además de los históricos, como medio para preservar su autenticidad. Esta tesis pretende demostrar que la práctica de la restauración realizada en la Mezquita-Catedral a lo largo del siglo XX ha evolucionado desde la búsqueda de lo original hasta la búsqueda de lo auténtico, como reflejo de una visión basada en lo arqueológico frente a una renovada visión arquitectónica más completa, que incluye a la anterior. La consideración de la intervención en este edificio como otra página más de su historia y no como la última, significa la reedición de un mecanismo recurrente en la vida del edificio y un nuevo impulso en ese proceso de continua transformación. ABSTRACT The Mosque-Cathedral of Cordoba is a living building. A building transformed by men of different races, cultures and religions during more than 1.200 years old and that, nevertheless, it has continued to be in use all days in that long life. Thus, the building shows to the visitor as a complex architectural object, the result of continuous transformation. This transformation capacity of the buildings is inherent in their own architectural condition, it’s not an exclusive fact of the Mosque-Cathedral. However, in this building that transformation happens with a great intensity, without losing their authenticity. Traditionally, buildings have been adapted to the new requirements of times in a process that looked for laws or principles in order to guide the intervention. Thus, both the successive enlargements of the Mosque of Abd al-Rahman and Christian interventions must assume the preexistence as a working material. So, the architects of the caliph al-Hakam II spoke to their predecessors, complexing the receiving space, as well as Hernan Ruiz got a new organism as result the introduction of his luminous architecture into hispanic-muslim weft. The nineteenth century confirmed the desire to discover the traces of a glorious past that Baroque intervention had silenced, under a uniform space treatment. Exactly two centuries ago, the recovery of these traces meant the start of the last major phase in the transformation of the building: the restoration. The building was considered subject to conserve and since then, efforts focused on the recovery of latent Umayyad architecture. Thus, the practice of restoration as a discipline was absolutely influenced by Archaeology as the only source of knowledge. Interventions were seeking the original as the way to recover that past in a space and formal way, concentrating on essential sites of the building. The statement as a national monument in 1882 prompted the State take charge of its maintenance and preservation, replacing to the nineteenth century Bishops and Cabildos, which had a very advanced understanding for that time. The arrival of the architect Velazquez Bosco in the last decades of the nineteenth century involved a momentous change in the history of the building, since he received a building with significant damage and he achieved the foundations of the building that we can see today. Efforts to a material and space recover returned the Mosque-Cathedral to its original image, accurately reproducing the models found in archaeological explorations. The arrival of Antonio Florez after Velazquez’s death involved the translation of discipline debate, which was developed in the first two decades of the twentieth century. Florez tried a new understanding of the intervention, considering conservation as a priority action. In 1926, the State reformed the way in which heritage was attended, creating a zones system with a few architects in charge of them. The existence of a new legislative framework, underpinned this new conservative vision, supported by the Athens Charter of 1931. This scientific restoration model fleeing from intervention in style and it appreciated the need to intervene in the most concise way, with a distinct language based on the data offered by Archaeology. Therefore, it continued with the appraisement of the building as a historical document, seeking in this case a differentiated image of intervention, against Velazquez mimetic attitude. It is remarkable the way in which the historian Manuel Gomez-Moreno influenced several generations of architects, archaeologists and historians, both in the scientific understanding of the restoration and the administrative structure. The work of Jose Maria Rodriguez Cano first and then Felix Hernandez was theoretically influenced by the Gomez-Moreno’s method, although in many respects their work did not represent a great difference to Velazquez Bosco. The search of the original returned to recur, but the economic charge of maintaining such a large building led to the non-realization of many of the most ambitious projects. This obsessive search for the original image of the building had its last and anachronistic stage with the intervention of the Department of Architecture at 70’s. However, the exhaustion of the scientific model had already led to a new scenario at European level, which crystallized in the Venice Charter of 1964 and a new definition of the object to be preserved beyond the value as a historical document. This new theoretical position had its translation to Spanish restaurateur model in the last quarter of the twentieth century, coinciding with the Transition. The architect Dionisio Hernandez Gil defended a different interpretation from archaeologists and historians, that had prevailed throughout the century. According to Hernandez Gil, the problems of intervention should focus primarily as architectural issues, abandoning the idea that they could only be determined by specialist. This theoretical conviction was defended from the new administration and led to the use of particularized criteria, from a multifocal analysis of each situation. And this change had its translation to the Mosque with the practice of Gabriel Ruiz Cabrero and Gabriel Rebollo. Consistent with this new perspective, they accepted the receiving building, replacing the search on original page for acceptance of all historical pages and respecting the constructive techniques of the past. The search for specific solutions from the architectural object meant the renewed attention to the powerful formal-constructive structure as the origin of all thought. Consider the Mosque-Cathedral as Architecture, involved the attention to all kinds of factors in addition to the historical, as a means to preserve its authenticity. This thesis aims to demonstrate that the practice of restoration in the Mosque-Cathedral throughout the twentieth century has evolved from the search of the original to the search for the authentic, reflecting a vision based on the archaeological against a renewed more complete architectural vision, including the above. Consideration of intervention in this building as another page in its history and not the last one, means the reissue of an own mechanism and a new impetus in that continuous transformation process.
Resumo:
El trabajo de investigación que presentamos tiene como principal objetivo, la recopilación, el registro, el análisis y la reflexión sobre una época, tan trascendental como poco estudiada desde el ámbito arquitectónico, como es el período comprendido entre las dos normas de mayor relevancia en relación a la protección del Patrimonio Histórico Español del último siglo. Nos referimos a la Ley sobre Defensa, Conservación y Acrecentamiento del Patrimonio Histórico Nacional de 13 de mayo de 1933 y la Ley 13/1985, de 25 de junio, del Patrimonio Histórico Español. A través de la investigación realizada, se pretende aportar una visión integral de esta etapa, desde el enfoque arquitectónico, fundamentando la misma en el desarrollo de pautas metodológicas, abordadas desde la recopilación exhaustiva del material bibliográfico y documental para su posterior análisis. A partir de esta fase inicial, se han identificado los nexos comunes entre los estudios existentes sobre el patrimonio monumental español previos a la Guerra Civil y las investigaciones dedicadas a la historia de las últimas décadas del siglo XX. De esta forma, se ha procurado trazar un “puente” documental, con el que trasponer virtualmente el vacío bibliográfico existente. Históricamente, la protección del patrimonio histórico edificado y urbano, ha preocupado y ocupado a multitud de profesionales que, desde disciplinas dispares, han emprendido la tarea ímproba de comprender y explicar cuáles han sido los avatares, históricos y legales, que han marcado su evolución. Tal preocupación ha generado una bibliografía ingente y diversa, desde la protección formal y precisa, sobre uno u otro material, pasando por el marco historiográfico de las tendencias conservacionistas y las teorías decimonónicas, las filigranas formadas por las cuantiosas normas promulgadas desde la Novísima Recopilación, hasta la incidencia del planeamiento urbano en la tutela del patrimonio, incluidas la trama de competencias y yuxtaposiciones administrativas. Documentos de toda índole y profundidad científica, que como mosaicos hispanomusulmanes, dibujan el panorama patrimonial en el que la criba de material resulta una tarea, en ocasiones, inextricable. El título de este documento, en sí mismo, circunscribe la materia que ha sido el objeto de análisis durante el proceso de investigación, el Patrimonio Arquitectónico Monumental. El eje o núcleo basal de estudio se sitúa en los bienes inmuebles, los edificados, que, a su vez, ostentan la declaración de Bien de Interés Cultural, y que, por ende, pertenecen al Patrimonio Histórico Español. La metodología de trabajo se ha desarrollado de forma concéntrica, desde aspectos generales de la protección del patrimonio monumental, como el marco legal que antecede a la promulgación de la Ley de 1933, y el estado previo de los bienes susceptibles de ser preservados. Reconocemos en el ámbito legislativo, el fundamento orgánico que regula y dirige la tutela del patrimonio histórico español y la acción conservadora, y que delimita el ámbito a partir del cual se condiciona el devenir de los bienes culturales. Del esquema de situación surgido del análisis previo, se han detectado los factores claves en la transición hacia la Ley de Patrimonio Histórico Español; la evolución conceptual del “Patrimonio”, como apreciación genérica, y el testimonio de este progreso a través de los valores históricos, artísticos y culturales. El presente documento de investigación, consta de una primera fase, correspondiente al Capítulo 1, que se ha desarrollado a partir, principalmente, de la ordenación jurídica que rige el Patrimonio Histórico Español, a través de leyes, decretos, órdenes y disposiciones anexas, complementado con el material bibliográfico dedicado a la revisión histórica del proceso legal de la protección del patrimonio histórico-artístico. Si bien no ha sido nuestro propósito realizar un estudio pormenorizado del volumen jurídico e histórico que precede a la Ley de 1933, y que da inicio al período de estudio de la presente investigación, sí lo ha sido centrarnos en la elaboración de un extracto de aquellos elementos de la doctrina de mayor relevancia y repercusión en la protección del patrimonio histórico-artístico y/o monumental español. A lo largo de este estudio hemos comprobado lo que algunos juristas ya habían planteado, acerca de la profunda dispersión, ramificación, y diversificación de esfuerzos, tanto en la legislación específica como en la urbanística. Esta disgregación se ha extendido al ámbito de las medidas de reconocimiento caracterizado por la elaboración de múltiples catálogos e inventarios, con desigual transcendencia, alcance y utilidad. El resultado ha sido una división de esfuerzos, desdibujando el objetivo y convirtiendo la acción del reconocimiento en múltiples empresas inconexas y de escasa trascendencia. Nuestra investigación avanza en el análisis de la protección del patrimonio, como concepto globalizador, con el desarrollo del Capítulo 2, en el que se incluye una serie de mecanismos directos e indirectos que, individualmente, suelen carecer de la fuerza efectiva que muchos de los monumentos o conjuntos monumentales requieren para sobrevivir al paso del tiempo y sus circunstancias. En primer lugar, en este segundo capítulo nos hemos centrado, específicamente, en el mecanismo regulado por la Ley del Patrimonio Histórico Español, y el régimen general de protección implementado a partir de su promulgación en 1985. En especial, consideraremos la declaración de Interés Cultural como grado máximo de protección y tutela de un bien, y su posterior inscripción en el Registro General correspondiente, dependiente del Ministerio de Educación, Cultura y Deporte. Este mecanismo representa el instrumento por antonomasia que condensa las facultades de tutela del Estado sobre un bien del que se considera poseedor y aglutinador de valores “culturales” —como cohesión de los valores históricos, artísticos, sociales, etc. — representativos de la idiosincrasia española, y sobre el cual no existen dudas sobre la necesidad de garantizar su permanencia a través de su conservación. En segunda instancia, hemos analizado el Planeamiento Urbanístico, como aglutinador de valores culturales contenidos en la ciudad y como contenedor de los efectos generados por el hombre a partir de su interacción con el medio en el que habita y se relaciona. En tercer término, hemos recopilado y estudiado la concepción de los catálogos, como noción genérica de protección. Desde hace siglos, este género ha estado definido como una herramienta capaz de intervenir en la protección del patrimonio histórico, aunque de una manera difícilmente cuantificable, mediante la identificación, enumeración y descripción de una tipología concreta de monumentos o grupos de ellos, contribuyendo al reconocimiento de los valores cualitativos contenidos en éstos. El tercer capítulo analiza el mecanismo directo de tutela que ejerce la Administración en el patrimonio monumental. La declaración de monumentalidad o de Bien de Interés Cultural y su inclusión en el Registro General de Protección. La protección teórica y la protección jurídica de un monumento, analizadas hasta el momento, resultan tan necesarias como pueriles si no van seguidas de su consumación. En el caso de este tipo de patrimonio monumental, toda acción que tenga como objeto resguardar los valores implícitos en un bien mueble o inmueble, y en su materia, implica el cumplimiento de la protección. Por último, el cuarto capítulo se convierte en el punto culminante, y por ende crucial, del proceso de protección del Patrimonio Cultural, el de la consumación de la intervención. La teoría, la crítica, la normativa y hasta las doctrinas más radicales en materia de protección del patrimonio cultural, carecen de sentido si no las suceden los hechos, la acción, en antítesis a la omisión o la desidia. De ello ha dado pruebas elocuentes la propia historia en multitud de ocasiones con la destrucción, por indolencia o desconocimiento, de importantes vestigios del patrimonio arquitectónico español. Por este motivo, y para ser consecuentes con nuestra tesis hemos recuperado, concentrado y analizado la documentación de obra de tres monumentos imprescindibles del patrimonio construido (la Catedral de Burgos, el Palacio-Castillo de la Aljafería en Zaragoza y la Muralla de Lugo). En ocasiones, al examinar retrospectivamente las intervenciones en monumentos de gran envergadura, física y cultural como catedrales o murallas, algunos investigadores han tenido la sospecha o prevención de que las actuaciones no han seguido un plan de actuación premeditado, sino que han sido el resultado de impulsos o arrebatos inconexos producto de la urgencia por remediar algún tipo de deterioro. En oposición a esto, y a través del estudio de las intervenciones llevadas a cabo en los tres monumentos mencionados, hemos podido corroborar que, a excepción de intervenciones de emergencia fruto de circunstancias puntuales, existe coherencia desde el proceso de análisis de situación de un bien a la designación de prioridades, que ha regido el proceso restaurador a lo largo de dos siglos. La evolución de las intervenciones realizadas en los monumentos analizados ha estado definida, además de por su complejidad, magnitud y singularidad constructiva, por el devenir de su estructura y su uso. En conclusión, la efectividad de la protección del patrimonio cultural español, radica en la concomitancia de múltiples aspectos, entre ellos: el cumplimiento acertado de las normas vigentes, específicas y accesorias; el conocimiento del bien y de sus valores históricos, artísticos, y culturales; su catalogación o inclusión en los inventarios correspondientes; el compromiso de los agentes e instituciones de los cuales depende; la planificación de las tareas necesarias que garanticen tanto la salvaguarda estructural como la conservación de sus valores; y la incorporación de un plan de seguimiento que permita detectar eventuales peligros que atenten contra su conservación. Pero, la situación óptima estaría dada por un sistema en el que estos mecanismos —regulaciones específicas y urbanísticas, Declaraciones de Bien de Interés Cultural, Catálogos e Inventarios, etc. — funcionaran, de forma parcial o total, como una maquinaria, donde cada pieza operara con independencia relativa, pero en sintonía con los demás engranajes. Hasta el momento, la realidad dista mucho de esta situación, convirtiendo esta convivencia en una utopía. Tanto los legisladores, como las autoridades y los técnicos involucrados, deben tener presente que, de ellos, de los parámetros asignados por la legislación, de la implementación de los instrumentos estipulados por ésta y de las decisiones tomadas por cada uno de los poderes directivos de los órganos competentes, dependerá el alcance y efectividad de la protección, ya que en cada vertiente existe, en mayor o menor medida, un porcentaje de interpretación y subjetividad. ABSTRACT The research that we present has as the main objective to collect, record, analyzed and reflection on a time, that was little studied from the architectural field. It is the period between the two laws of most relevance to the protection of Spanish Historical Heritage of the last century. We refer to the Law on the Protection and Conservation of National Heritage of 1933 and Law 16/1985 of Spanish Historical Heritage. Through this research, it aims to provide a comprehensive view of the stage from the architectural approach, basing it on the development of methodological guidelines. The investigation was initiated by the bibliography and documentary for further analysis. After this initial phase, we have identified the common links between existing studies on the Spanish architectural heritage prior to the Civil War and dedicated research into the history of the late twentieth century. Thus, we have tried to draw a documental bridge, with which virtually transpose the gap that has existed. Historically, professionals from diverse disciplines have been worried and busy of the protection of the built and urban heritage. They have undertaken the daunting task of understanding and explaining the historical and legal difficulties, which have marked its evolution. This concern has generated an enormous and diverse literature, from formal and precise protection, in the framework of conservation historiographical trends and nineteenth-century theories. Also, they have studied the impact of urban planning in the protection of heritage, including the competences and administrative juxtapositions. They have generated a lot of documents of all kinds and scientific depth. The title of this document, in itself, circumscribes the matter that has been analyzed during this research process, the Monumental Architectural Heritage. The basal studio is located in the historical buildings, which, in turn, hold the declaration of cultural interest, and thus belong to the Spanish Historical Heritage. The work methodology was developed concentrically from general aspects of the protection of monuments, such as the legal framework that predates the enactment of the 1933 Act, and the previous state of the monuments that should be preserved. We recognize in the legislative sphere, the organic base that regulates and directs the tutelage of Spanish heritage and conservative action. The situation scheme emerged from the previous analysis, and we detected the key factors in the transition to the Spanish Historical Heritage Act; the conceptual evolution of the Heritage as a generic assessment, and witness this progress through historical, artistic and cultural values. This research paper consists of a first phase, corresponding to Chapter 1, which has developed from the legal regulation governing the Spanish Historical Heritage, through laws, decrees, orders and related provisions, supplemented the bibliography dedicated to the historical review of the legal process of protecting historical and artistic heritage. While it was not our intention to conduct a detailed study of the legal and historical volume preceding the 1933 Act, and that started the study period of this investigation, yes he has been focusing on the production of an extract from those elements of the doctrine with greater relevance and impact on the protection of Spanish art-historical and / or architectural heritage. Throughout our study we have seen what some jurists had already raised, about the scattering, branching and diversification of efforts, both in specific law and in urban law. This disaggregation has been extended to the field of recognition measures characterized by the development of multiple catalogs and inventories, with varying significance, scope and usefulness. The result has been a division of efforts, blurring the objective and turning the action of the recognition in multiple attempts little consequence. Our research advances in the analysis of heritage protection, as globalization concept in the Chapter 2, which includes a number of direct and indirect mechanisms that individually, often lack the effective force that many of monuments have required to survive the test of time and circumstances. First, in this second chapter we focused specifically on the mechanism regulated by the Spanish Historical Heritage Act, and the general protection regime implemented since its enactment in 1985 . In particular, we consider the declaration of cultural interest as maximum protection and protection of cultural assets, and their subsequent entry in the relevant General Register under the Ministry of Education, Culture and Sports . This mechanism is the instrument par excellence that condenses the powers of state care about a cultural asset, and which represents the cohesion of the historical, artistic, social values , etc. Secondly, we analyzed the Urban Planning, as a unifying cultural value in the city and as a container for the effects caused by man from its interaction with the environment in which he lives and relates. Thirdly, we have collected and studied the origin of catalogs, as generic notion of protection. For centuries, this genre has been defined as a tool to intervene in the protection of historical heritage, although difficult to quantify, through the identification, enumeration and description of a particular typology of monuments, and that contributing to the recognition of qualitative values contained therein. The third chapter analyzes the direct mechanism of protection performed by the Administration in the monuments with the statement of Cultural asset and inclusion in the General Protection Register. The theoretical and legal protection of a monument is as necessary as puerile if they are not followed by intervention. For this type of architectural heritage, any action which has the aim to safeguard the values implicit in the cultural asset involves protection compliance. Finally, the fourth chapter becomes the highlight, because it treated of the end process of the cultural heritage protection, the consummation of the intervention. The theory, the criticism, the rules and even the radical doctrines on the protection of cultural heritage, are meaningless if they do not take place the facts, the action, in antithesis to the omission. The history of the architectural heritage has given eloquent proof by itself. A lot of vestiges have been lost, in many times, for the destruction, through indolence or unknowledge. For this reason, and to be consistent with our thesis, we have collected and analyzed the projects documentation of three monuments (the Burgos Cathedral, the Aljafería Palace-Castle in Zaragoza and the Wall of Lugo). Sometimes, some researchers have suspected that there had not been planning. They suspect that the projects have been the result of different emergency situations. In opposition of this, we confirm that, except for emergency interventions result of specific circumstances, there have been a process of analysis to conclude in the priorities designation, which has guided the restoration process over two centuries. The complexity, magnitude and constructive uniqueness have defined the evolution of intervention. In conclusion, the effectiveness of the protection of Spanish cultural heritage lies in the conjunction of many aspects, including: the successful implementation of existing, specific and ancillary standards; the knowledge of good and its historical, artistic and cultural values; the cataloging and inclusion in the relevant inventories; and the commitment of the actors and institutions on which it depends. These planning tasks are necessary to ensure both structural safeguards as conservation values; and the introduction of a monitoring plan to detect possible dangers that threaten its conservation. But, the optimal situation would be given by a system in which these urban-regulations and specific mechanisms, would work together like a machine, where each piece operated with relative independence, but in tune with the other gears. So far, the reality is far from this situation, turning this coexistence in a utopia. Both legislators and officials and technicians involved must be aware that the effectiveness and scope of protection depends on your insight and commitment.
Resumo:
La variabilidad de la demanda a lo largo de las horas del día y las estaciones del año, junto a la generación aleatoria de la mayoría de las fuentes de energía renovable, sitúan al sistema eléctrico ante un nuevo y fascinante paradigma; ello resulta especialmente relevante en redes relativamente aisladas y con una notable penetración de los parques eólicos, como sucede actualmente en España. La figura 1 muestra una curva típica, con dos puntas que reflejan sobretodo las necesidades de climatización durante las horas cálidas del estío e iluminación en los días cortos del invierno.
Resumo:
This paper presents some of the results of a method to determine the main reliability functions of concentrator solar cells. High concentrator GaAs single junction solar cells have been tested in an Accelerated Life Test. The method can be directly applied to multi-junction solar cells. The main conclusions of this test carried out show that these solar cells are robust devices with a very low probability of failure caused by degradation during their operation life (more than 30 years). The evaluation of the probability operation function (i.e. the reliability function R(t)) is obtained for two nominal operation conditions of these cells, namely simulated concentration ratios of 700 and 1050 suns. Preliminary determination of the Mean Time to Failure indicates a value much higher than the intended operation life time of the concentrator cells.
Resumo:
Durante la última década la investigación en nanomedicina ha generado gran cantidad de datos, heterogéneos, distribuidos en múltiples fuentes de información. El uso de las Tecnologías de la Información y la Comunicación (TIC) puede facilitar la investigación médica a escala nanométrica, proporcionando mecanismos y herramientas que permitan gestionar todos esos datos de una manera inteligente. Mientras que la informática biomédica comprende el procesamiento y gestión de la información generada desde el nivel de salud pública y aplicación clínica hasta el nivel molecular, la nanoinformática extiende este ámbito para incluir el “nivel nano”, ocupándose de gestionar y analizar los resultados generados durante la investigación en nanomedicina y desarrollar nuevas líneas de trabajo en este espacio interdisciplinar. En esta nueva área científica, la nanoinformática (que podría consolidarse como una auténtica disciplina en los próximos años), elGrupo de Informática Biomédica (GIB) de la Universidad Politécnica de Madrid (UPM) participa en numerosas iniciativas, que se detallan a continuación.