1000 resultados para Salida y retorno


Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este escrito se pretende llevar a cabo la realización de un proyecto técnico sobre eficiencia energética en edificios. El proyecto comienza con el estudio de la demanda térmica de un edificio, es decir, de sus necesidades de calefacción, refrigeración y agua caliente sanitaria (ACS). Una vez realizado este análisis, se procede al estudio de distintas alternativas para la disminución del coste asociado al consumo energético del edificio, las cuales son: mejora del aislamiento de la envolvente térmica del edificio, instalación de colectores solares para la producción de ACS y el cambio de los quemadores de las calderas. De estas medidas se han presupuestado aquellas que poseen un bajo periodo de retorno de la inversión, y se ha desarrollado su planificación, programación temporal y análisis económico. ABSTRACT In this document is pretended to be carry out the performance of a technical project about energy efficiency in buildings. The project begins with the study of the thermal demand of the building, that is to say, the heating, cooling and domestic hot water (DHW) needs. Once the analysis has been done, is proceeded the study of different alternatives for diminishing the cost associate to the building energy consumption, which are: improvement of the insulation of the building, solar collector installation to produce DHW and change of the burner of the boilers. Among this measures, has been budgeted the ones that possess a low invest pay-back, and it is been developed their planning, their temporal programming and their economic analysis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante los años de boom inmobiliario la obtención de plusvalías a través del desarrollo de operaciones de obra nueva fue llevada hasta sus últimas consecuencias. Ya en los años previos al estallido de la burbuja inmobiliaria, y con mayor fuerza tras éste, las políticas de rehabilitación y regeneración urbana se han presentado como una salida para un sector en crisis. Pero no sólo ese puede ser el objetivo, es necesario considerar la rehabilitación en áreas urbanas como una herramienta para el reequilibrio de la ciudad fragmentada y la incorporación de sus habitantes y espacios al proyecto de construcción de la ciudad democrática. Teniendo en cuenta esta dualidad, debemos plantearnos diversas cuestiones: ¿Cuál ha sido hasta ahora la evolución de las políticas de fomento de la rehabilitación urbana? ¿Cómo es el procedimiento que articula y gestiona el trasvase de ayudas al sector privado? ¿Sobre qué áreas de la ciudad han recaído las ayudas? Para dar respuesta a estas preguntas hemos analizado los programas de rehabilitación en áreas desarrollados en las últimas décadas a través de la financiación de los Planes de Vivienda estatales. El trabajo por un lado se centra en desgranar los documentos que conforman el marco legal de los planes de vivienda, analizando los programas y los mecanismos disponibles para la rehabilitación en áreas. Por otro, se analizan las áreas declaradas en ciudades de más de 50.000 habitantes y capitales de provincia, con el objetivo de evaluar la magnitud de las ayudas estatales y la evolución de su impacto en la ciudad consolidada y en las promociones periféricas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El principal objetivo del presente trabajo de investigación fue determinar las diferencias en distintas variables relacionadas con el rendimiento físico entre atletas de distinto nivel durante la prueba de los 60 metros vallas. Un total de 59 vallistas masculinos (los 31 participantes en el Campeonato del Mundo Absoluto de Pista Cubierta y los 28 participantes en el Campeonato de España Absoluto de Pista Cubierta, ambos celebrados en Valencia en el año 2008) formaron la muestra del estudio. El análisis biomecánico se realizó mediante un sistema fotogramétrico en dos dimensiones que permitió calcular, aplicando algoritmos basados en el procedimiento de la DLT (Abdel-Aziz y Karara, 1971), las coordenadas (x, y) de los sucesivos apoyos de los pies de los atletas sobre toda la superficie de competición. La filmación de las pruebas se llevó a cabo con seis cámaras de vídeo, ubicadas sobre la gradas, con una frecuencia de muestreo para el tratamiento de los datos de 50 Hz. En la fase de salida, los atletas de nivel superior mostraron una menor longitud (p<0,05) y tiempo de zancada (p<0,001), debido a un menor tiempo de vuelo (p<0,05). En la fase de vallas, los atletas de nivel más elevado presentaron mayores distancia de ataque a la valla (p<0,001), así como menores distancias de caída de la valla (p<0,001), tiempos de zancada (p<0,01-0,001) y de apoyo (p<0,01-0,001 ) en los cuatro pasos que conforman cada ciclo de vallas, así como un menor tiempo de vuelo en el paso de valla (p<0,001) y en el paso de transición (p<0,001). De manera adicional, se encontraron importantes diferencias en el reparto de los pasos entre vallas entre la primera y tercera valla y el resto de obstáculos. En la fase final, se observó una mayor longitud de zancada en los atletas de nivel superior (p<0,001), así como un menor tiempo de zancada (p<0,01) y de apoyo (p<0,01). Los resultados obtenidos en el presente estudio de investigación avalan la utilización de la fotogrametría en dos dimensiones para el análisis biomecánico de la prueba de 60 metros vallas en competición. Su aplicación en competiciones del máximo nivel internacional ha posibilitado conocer las características de los vallistas a lo largo de toda la prueba y determinar posibles implicaciones de cara al proceso de entrenamiento. ABSTRACT The aim of this research was to determine the differences in different variables related to physical performance among athletes of different levels during the race of 60 meter hurdles. A total of 59 male hurdlers (the 31 participants in the World Indoor Championship and the 28 participants in the Spanish Indoor Championship, both held in Valencia in 2008) formed the sample of the study. The biomechanical analysis of athletes was performed using a two-dimensional photogrammetric system which enabled calculation, applying algorithms based on the DLT method (Abdel -Aziz y Karara , 1971), the coordinates (x , y) of the successive supports of the feet on the entire competition surface. Filming test was conducted with six video cameras, located on the bleachers, with a sampling frequency for data processing of 50 Hz. In the approach run phase, the top-level athletes showed a smaller length step (p<0.05), and shorter step time (p<0.001), due to a shorter step flight time (p<0.05). In the hurdle unit phase, the higher level athletes had greater take-off distances (p<0.001), shorter landing distances (p<0.001), smaller step times (p<0.01-0.001), and support times (p<0.01- 0.001) in the four steps that comprised each hurdle unit, and smaller flight times in the hurdle step (p < 0.001), and the recovery step (p<0.001). Additionally, differences in the distribution of hurdle unit steps between the first and third hurdle, and other hurdles were found. In the run-in phase, a greater step length in top-level athletes (p<0.001), and a shorter step time (p<0.01) and contact time (p<0.01) was observed. The results obtained in this study support the use of photogrammetry in two dimensions for biomechanical analysis in 60 meter hurdles competition events. Its application at the highest international level competitions has allowed to know the characteristics of the hurdlers over the entire race and identify possible implications for the training process.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los pseudo-despolarizadores espaciales, entre los que se encuentran los denominados prismas despolarizadores, son dispositivos ópticos capaces de modificar el estado de polarización en cada punto del plano transversal de los haces de luz, obteniendo un continuo de estados de polarización y por tanto un grado de polarización estándar próximo a cero. En la literatura, en reiteradas ocasiones se utilizan estos prismas asumiendo la aproximación de que en su cara oblicua no existe doble reflexión. En el presente trabajo se investigan en detalle las características de polarización locales y globales de haces monocromáticos planos a la salida de un prisma despolarizador teniendo en cuenta la doble reflexión y se comparan los resultados con el caso de despreciar esta doble reflexión. Como consecuencia se obtienen las condiciones bajo las cuales el efecto de la doble reflexión puede ser despreciable. ABSTRACT: Spatial pseudo-depolarizers are optical devices that modify the polarization state along the transverse plane of a light beam in such a way that a continuum of polarization states are obtained. Consequently, a standard degree of polarization near to zero is reached when average over the whole beam section is taken. Depolarizing prism is an example of spatial pseudo-depolarizer. Double reflection effects are usually not considered in literature for such devices. In the present work, the polarization properties at the exit of a depolarizing prism are studied taking into account the effect of double reflection and the results are compared to those obtained when double reflection is neglected. Conditions under which the double reflection effect may be negligible on depolarizing action of this class of prisms are obtained.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se propone el uso de diversos tipos de haces no-uniformemente y totalmente polarizados en medidas polarimétricas de muestras homogéneas y transparentes. Como ejemplos concretos de este tipo de haces se proponen los haces espiralmente polarizados y haces a la salida de medios uniáxicos anisótropos con el eje óptico en la dirección de propagación. Dichos haces se representan mediante modelos analíticos sencillos, teniendo en cuenta el carácter vectorial de los mismos, los cuales permiten conocer el campo en cualquier plano en propagación libre y a través de medios o sistemas que pueden ser descritos mediante matrices de Müller. Mediante el uso de haces nouniformemente y totalmente polarizados se simplifica notablemente el proceso de medida, siendo suficientes una o dos medidas según el haz utilizado, para la obtención de todos los elementos de la matriz de Müller de la muestra. ABSTRACT. In this work the use of non-uniformly and totally polarized fields in polarimetric measurements of homogeneous and transparent samples is proposed. As particular examples of this kind of fields, spirally polarized fields and fields at the output of uniaxial anisotropic media, with its optics axis along the propagation direction, are considered. Such fields are represented by simple analytical models, taking the vectorial nature of light into account. By means of these models, the fields at any plane upon free propagation or after passing through media or systems described by Müller matrices, can be calculated. By using non-uniformly and totally polarized fields the measurement procedure is significantly simplified. Depending on the field to be used only one or two measurements are required for obtaining all the elements of the Müller matrix of the sample.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El aumento de la temperatura media de la Tierra durante el pasado siglo en casi 1 ºC; la subida del nivel medio del mar; la disminución del volumen de hielo y nieve terrestres; la fuerte variabilidad del clima y los episodios climáticos extremos que se vienen sucediendo durante las ultimas décadas; y el aumento de las epidemias y enfermedades infecciosas son solo algunas de las evidencias del cambio climático actual, causado, principalmente, por la acumulación de gases de efecto invernadero en la atmósfera por actividades antropogénicas. La problemática y preocupación creciente surgida a raíz de estos fenómenos, motivo que, en 1997, se adoptara el denominado “Protocolo de Kyoto” (Japón), por el que los países firmantes adoptaron diferentes medidas destinadas a controlar y reducir las emisiones de los citados gases. Entre estas medidas cabe destacar las tecnologías CAC, enfocadas a la captura, transporte y almacenamiento de CO2. En este contexto se aprobó, en octubre de 2008, el Proyecto Singular Estratégico “Tecnologías avanzadas de generación, captura y almacenamiento de CO2” (PSE-120000-2008-6), cofinanciado por el Ministerio de Ciencia e Innovación y el FEDER, el cual abordaba, en su Subproyecto “Almacenamiento Geológico de CO2” (PSS-120000-2008-31), el estudio detallado, entre otros, del Análogo Natural de Almacenamiento y Escape de CO2 de la cuenca de Ganuelas-Mazarrón (Murcia). Es precisamente en el marco de dicho Proyecto en el que se ha realizado este trabajo, cuyo objetivo final ha sido el de predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un Almacenamiento Geológico Profundo de CO2 (AGP-CO2), mediante el estudio integral del citado análogo natural. Este estudio ha comprendido: i) la contextualización geológica e hidrogeológica de la cuenca, así como la investigación geofísica de la misma; ii) la toma de muestras de aguas de algunos acuíferos seleccionados con el fin de realizar su estudio hidrogeoquímico e isotópico; iii) la caracterización mineralógica, petrográfica, geoquímica e isotópica de los travertinos precipitados a partir de las aguas de algunos de los sondeos de la cuenca; y iv) la medida y caracterización química e isotópica de los gases libres y disueltos detectados en la cuenca, con especial atención al CO2 y 222Rn. Esta información, desarrollada en capítulos independientes, ha permitido realizar un modelo conceptual de funcionamiento del sistema natural que constituye la cuenca de Ganuelas-Mazarrón, así como establecer las analogías entre este y un AGP-CO2, con posibles escapes naturales y/o antropogénicos. La aplicación de toda esta información ha servido, por un lado, para predecir el comportamiento y evaluar la seguridad, a corto, medio y largo plazo, de un AGP-CO2 y, por otro, proponer una metodología general aplicable al estudio de posibles emplazamientos de AGP-CO2 desde la perspectiva de los reservorios naturales de CO2. Los resultados más importantes indican que la cuenca de Ganuelas-Mazarrón se trata de una cubeta o fosa tectónica delimitada por fallas normales, con importantes saltos verticales, que hunden al substrato rocoso (Complejo Nevado-Filabride), y rellenas, generalmente, por materiales volcánicos-subvolcánicos ácidos. Además, esta cuenca se encuentra rellena por formaciones menos resistivas que son, de muro a techo, las margas miocenas, predominantes y casi exclusivas de la cuenca, y los conglomerados y gravas pliocuaternarias. El acuífero salino profundo y enriquecido en CO2, puesto de manifiesto por la xx exploración geotérmica realizada en dicha cuenca durante la década de los 80 y objeto principal de este estudio, se encuentra a techo de los materiales del Complejo Nevado-Filabride, a una profundidad que podría superar los 800 m, según los datos de la investigación mediante sondeos y geofísica. Por ello, no se descarta la posibilidad de que el CO2 se encuentre en estado supe critico, por lo que la citada cuenca reuniría las características principales de un almacenamiento geológico natural y profundo de CO2, o análogo natural de un AGP-CO2 en un acuífero salino profundo. La sobreexplotación de los acuíferos mas someros de la cuenca, con fines agrícolas, origino, por el descenso de sus niveles piezométricos y de la presión hidrostática, el ascenso de las aguas profundas, salinas y enriquecidas en CO2, las cuales son las responsables de la contaminación de dichos acuíferos. El estudio hidrogeoquímico de las aguas de los acuíferos investigados muestra una gran variedad de hidrofacies, incluso en aquellos de litología similar. La alta salinidad de estas aguas las hace inservibles tanto para el consumo humano como para fines agrícolas. Además, el carácter ligeramente ácido de la mayoría de estas aguas determina que tengan gran capacidad para disolver y transportar, hacia la superficie, elementos pesados y/o tóxicos, entre los que destaca el U, elemento abundante en las rocas volcánicas ácidas de la cuenca, con contenidos de hasta 14 ppm, y en forma de uraninita submicroscópica. El estudio isotópico ha permitido discernir el origen, entre otros, del C del DIC de las aguas (δ13C-DIC), explicándose como una mezcla de dos componentes principales: uno, procedente de la descomposición térmica de las calizas y mármoles del substrato y, otro, de origen edáfico, sin descartar una aportación menor de C de origen mantélico. El estudio de los travertinos que se están formando a la salida de las aguas de algunos sondeos, por la desgasificación rápida de CO2 y el consiguiente aumento de pH, ha permitido destacar este fenómeno, por analogía, como alerta de escapes de CO2 desde un AGP-CO2. El análisis de los gases disueltos y libres, con especial atención al CO2 y al 222Rn asociado, indican que el C del CO2, tanto disuelto como en fase libre, tiene un origen similar al del DIC, confirmándose la menor contribución de CO2 de origen mantélico, dada la relación R/Ra del He existente en estos gases. El 222Rn sería el generado por el decaimiento radiactivo del U, particularmente abundante en las rocas volcánicas de la cuenca, y/o por el 226Ra procedente del U o del existente en los yesos mesinienses de la cuenca. Además, el CO2 actúa como carrier del 222Rn, hecho evidenciado en las anomalías positivas de ambos gases a ~ 1 m de profundidad y relacionadas principalmente con perturbaciones naturales (fallas y contactos) y antropogénicas (sondeos). La signatura isotópica del C a partir del DIC, de los carbonatos (travertinos), y del CO2 disuelto y libre, sugiere que esta señal puede usarse como un excelente trazador de los escapes de CO2 desde un AGPCO2, en el cual se inyectara un CO2 procedente, generalmente, de la combustión de combustibles fósiles, con un δ13C(V-PDB) de ~ -30 ‰. Estos resultados han permitido construir un modelo conceptual de funcionamiento del sistema natural de la cuenca de Ganuelas-Mazarrón como análogo natural de un AGP-CO2, y establecer las relaciones entre ambos. Así, las analogías mas importantes, en cuanto a los elementos del sistema, serian la existencia de: i) un acuífero salino profundo enriquecido en CO2, que seria análoga a la formación almacén de un AGPxxi CO2; ii) una formación sedimentaria margosa que, con una potencia superior a 500 m, se correspondería con la formación sello de un AGP-CO2; y iii) acuíferos mas someros con aguas dulces y aptas para el consumo humano, rocas volcánicas ricas en U y fallas que se encuentran selladas por yesos y/o margas; elementos que también podrían concurrir en un emplazamiento de un AGP-CO2. Por otro lado, los procesos análogos mas importantes identificados serian: i) la inyección ascendente del CO2, que seria análoga a la inyección de CO2 de origen antropogénico, pero este con una signatura isotópica δ13C(V-PDB) de ~ -30 ‰; ii) la disolución de CO2 y 222Rn en las aguas del acuífero profundo, lo que seria análogo a la disolución de dichos gases en la formación almacén de un AGP-CO2; iii) la contaminación de los acuíferos mas someros por el ascenso de las aguas sobresaturadas en CO2, proceso que seria análogo a la contaminación que se produciría en los acuíferos existentes por encima de un AGP-CO2, siempre que este se perturbara natural (reactivación de fallas) o artificialmente (sondeos); iv) la desgasificación (CO2 y gases asociados, entre los que destaca el 222Rn) del acuífero salino profundo a través de sondeos, proceso análogo al que pudiera ocurrir en un AGP-CO2 perturbado; y v) la formación rápida de travertinos, proceso análogo indicativo de que el AGP-CO2 ha perdido su estanqueidad. La identificación de las analogías más importantes ha permitido, además, analizar y evaluar, de manera aproximada, el comportamiento y la seguridad, a corto, medio y largo plazo, de un AGP-CO2 emplazado en un contexto geológico similar al sistema natural estudiado. Para ello se ha seguido la metodología basada en el análisis e identificación de los FEPs (Features, Events and Processes), los cuales se han combinado entre sí para generar y analizar diferentes escenarios de evolución del sistema (scenario analysis). Estos escenarios de evolución identificados en el sistema natural perturbado, relacionados con la perforación de sondeos, sobreexplotación de acuíferos, precipitación rápida de travertinos, etc., serian análogos a los que podrían ocurrir en un AGP-CO2 que también fuera perturbado antropogénicamente, por lo que resulta totalmente necesario evitar la perturbación artificial de la formación sello del AGPCO2. Por último, con toda la información obtenida se ha propuesto una metodología de estudio que pueda aplicarse al estudio de posibles emplazamientos de un AGP-CO2 desde la perspectiva de los reservorios naturales de CO2, sean estancos o no. Esta metodología comprende varias fases de estudio, que comprendería la caracterización geológico-estructural del sitio y de sus componentes (agua, roca y gases), la identificación de las analogías entre un sistema natural de almacenamiento de CO2 y un modelo conceptual de un AGP-CO2, y el establecimiento de las implicaciones para el comportamiento y la seguridad de un AGP-CO2. ABSTRACT The accumulation of the anthropogenic greenhouse gases in the atmosphere is the main responsible for: i) the increase in the average temperature of the Earth over the past century by almost 1 °C; ii) the rise in the mean sea level; iii) the drop of the ice volume and terrestrial snow; iv) the strong climate variability and extreme weather events that have been happening over the last decades; and v) the spread of epidemics and infectious diseases. All of these events are just some of the evidence of current climate change. The problems and growing concern related to these phenomena, prompted the adoption of the so-called "Kyoto Protocol" (Japan) in 1997, in which the signatory countries established different measurements to control and reduce the emissions of the greenhouse gases. These measurements include the CCS technologies, focused on the capture, transport and storage of CO2. Within this context, it was approved, in October 2008, the Strategic Singular Project "Tecnologías avanzadas de generación, captura y almacenamiento de CO2" (PSE-120000-2008-6), supported by the Ministry of Science and Innovation and the FEDER funds. This Project, by means of the Subproject "Geological Storage of CO2" (PSS- 120000-2008-31), was focused on the detailed study of the Natural Analogue of CO2 Storage and Leakage located in the Ganuelas-Mazarron Tertiary basin (Murcia), among other Spanish Natural Analogues. This research work has been performed in the framework of this Subproject, being its final objective to predict the behaviour and evaluate the safety, at short, medium and long-term, of a CO2 Deep Geological Storage (CO2-DGS) by means of a comprehensive study of the abovementioned Natural Analogue. This study comprises: i) the geological and hydrogeological context of the basin and its geophysical research; ii) the water sampling of the selected aquifers to establish their hydrogeochemical and isotopic features; iii) the mineralogical, petrographic, geochemical and isotopic characterisation of the travertines formed from upwelling groundwater of several hydrogeological and geothermal wells; and iv) the measurement of the free and dissolved gases detected in the basin, as well as their chemical and isotopic characterisation, mainly regarding CO2 and 222Rn. This information, summarised in separate chapters in the text, has enabled to build a conceptual model of the studied natural system and to establish the analogies between both the studied natural system and a CO2-DGS, with possible natural and/or anthropogenic escapes. All this information has served, firstly, to predict the behaviour and to evaluate the safety, at short, medium and long-term, of a CO2-DGS and, secondly, to propose a general methodology to study suitable sites for a CO2-DGS, taking into account the lessons learned from this CO2 natural reservoir. The main results indicate that the Ganuelas-Mazarron basin is a graben bounded by normal faults with significant vertical movements, which move down the metamorphic substrate (Nevado-Filabride Complex), and filled with acid volcanic-subvolcanic rocks. Furthermore, this basin is filled with two sedimentary formations: i) the Miocene marls, which are predominant and almost exclusive in the basin; xxiv and ii) the Plio-Quaternary conglomerates and gravels. A deep saline CO2-rich aquifer was evidenced in this basin as a result of the geothermal exploration wells performed during the 80s, located just at the top of the Nevado-Filabride Complex and at a depth that could exceed 800 m, according to the geophysical exploration performed. This saline CO2-rich aquifer is precisely the main object of this study. Therefore, it is not discarded the possibility that the CO2 in this aquifer be in supercritical state. Consequently, the aforementioned basin gathers the main characteristics of a natural and deep CO2 geological storage, or natural analogue of a CO2-DGS in a deep saline aquifer. The overexploitation of the shallow aquifers in this basin for agriculture purposes caused the drop of the groundwater levels and hydrostatic pressures, and, as a result, the ascent of the deep saline and CO2-rich groundwater, which is the responsible for the contamination of the shallow and fresh aquifers. The hydrogeochemical features of groundwater from the investigated aquifers show the presence of very different hydrofacies, even in those with similar lithology. The high salinity of this groundwater prevents the human and agricultural uses. In addition, the slightly acidic character of most of these waters determines their capacity to dissolve and transport towards the surface heavy and/or toxic elements, among which U is highlighted. This element is abundant in the acidic volcanic rocks of the basin, with concentrations up to 14 ppm, mainly as sub-microscopic uraninite crystals. The isotopic study of this groundwater, particularly the isotopic signature of C from DIC (δ13C-DIC), suggests that dissolved C can be explained considering a mixture of C from two main different sources: i) from the thermal decomposition of limestones and marbles forming the substrate; and ii) from edaphic origin. However, a minor contribution of C from mantle degassing cannot be discarded. The study of travertines being formed from upwelling groundwater of several hydrogeological and geothermal wells, as a result of the fast CO2 degassing and the pH increase, has allowed highlighting this phenomenon, by analogy, as an alert for the CO2 leakages from a CO2-DGS. The analysis of the dissolved and free gases, with special attention to CO2 and 222Rn, indicates that the C from the dissolved and free CO2 has a similar origin to that of the DIC. The R/Ra ratio of He corroborates the minor contribution of CO2 from the mantle degassing. Furthermore, 222Rn is generated by the radioactive decay of U, particularly abundant in the volcanic rocks of the basin, and/or by 226Ra from the U or from the Messinian gypsum in the basin. Moreover, CO2 acts as a carrier of the 222Rn, a fact evidenced by the positive anomalies of both gases at ~ 1 m depth and mainly related to natural (faults and contacts) and anthropogenic (wells) perturbations. The isotopic signature of C from DIC, carbonates (travertines), and dissolved and free CO2, suggests that this parameter can be used as an excellent tracer of CO2 escapes from a CO2-DGS, in which CO2 usually from the combustion of fossil fuels, with δ13C(V-PDB) of ~ -30 ‰, will be injected. All of these results have allowed to build a conceptual model of the behaviour of the natural system studied as a natural analogue of a CO2-DGS, as well as to establish the relationships between both natural xxv and artificial systems. Thus, the most important analogies, regarding the elements of the system, would be the presence of: i) a deep saline CO2-rich aquifer, which would be analogous to the storage formation of a CO2-DGS; ii) a marly sedimentary formation with a thickness greater than 500 m, which would correspond to the sealing formation of a CO2-DGS; and iii) shallow aquifers with fresh waters suitable for human consumption, U-rich volcanic rocks, and faults that are sealed by gypsums and/or marls; geological elements that could also be present in a CO2-DGS. On the other hand, the most important analogous processes identified are: i) the upward injection of CO2, which would be analogous to the downward injection of the anthropogenic CO2, this last with a δ13C(V-PDB) of ~ -30 ‰; ii) the dissolution of CO2 and 222Rn in groundwater of the deep aquifer, which would be analogous to the dissolution of these gases in the storage formation of a CO2-DGS; iii) the contamination of the shallow aquifers by the uprising of CO2-oversaturated groundwater, an analogous process to the contamination that would occur in shallow aquifers located above a CO2-DGS, whenever it was naturally (reactivation of faults) or artificially (wells) perturbed; iv) the degassing (CO2 and associated gases, among which 222Rn is remarkable) of the deep saline aquifer through wells, process which could be similar in a perturbed CO2- DGS; v) the rapid formation of travertines, indicating that the CO2-DGS has lost its seal capacity. The identification of the most important analogies has also allowed analysing and evaluating, approximately, the behaviour and safety in the short, medium and long term, of a CO2-DGS hosted in a similar geological context of the natural system studied. For that, it has been followed the methodology based on the analysis and identification of FEPs (Features, Events and Processes) that have been combined together in order to generate and analyse different scenarios of the system evolution (scenario analysis). These identified scenarios in the perturbed natural system, related to boreholes, overexploitation of aquifers, rapid precipitation of travertines, etc., would be similar to those that might occur in a CO2-DGS anthropogenically perturbed, so that it is absolutely necessary to avoid the artificial perturbation of the seal formation of a CO2-DGS. Finally, a useful methodology for the study of possible sites for a CO2-DGS is suggested based on the information obtained from this investigation, taking into account the lessons learned from this CO2 natural reservoir. This methodology comprises several phases of study, including the geological and structural characterisation of the site and its components (water, rock and gases), the identification of the analogies between a CO2 storage natural system and a conceptual model of a CO2-DGS, and the implications regarding the behaviour and safety of a CO2-DGS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Probablemente las condiciones ambientales sean una de las principales asignaturas pendientes en los alojamientos de vacuno de leche. La concurrencia en gran parte de nuestro país de inviernos fríos y veranos muy calurosos añaden una dificultad más a la ya compleja tarea de diseñar una ventilación correcta. Los cambios bruscos de tiempo tampoco ayudan. Conscientes de la dificultad de la tarea, hemos querido ofrecer en este capítulo unas sencillas recomendaciones y aportar algunas sugerencias al hilo de lo que se está haciendo en otros países con sistemas de producción similares al nuestro. De esta forma, resaltamos la importancia de evitar las corrientes de aire pero proporcionar una amplia superficie de entrada y de salida de aire. Para que ello pueda ser posible, incluso en invierno, sugerimos la instalación de cortavientos. Finalmente, queremos resaltar la necesidad de que la renovación de aire llegue a todos los rincones de los alojamientos sin que se presenten zonas ciegas, y de evitar una humedad relativa excesiva, motivo de estrés térmico, de patologías respiratorias y de deterioro acelerado de los edificios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis se propone indagar en las vias por las que la arquitectura española cambió en el periodo comprendido entre 1920 y 1960 y el papel que los viajes tuvieron en dicho cambio. La investigación busca demostrar que, junto a otros factores como la llegada de revistas y libros y las conferencias de arquitectos de la talla de Le Corbusier, Gropius, Mendelsohn, Neutra o Aalto, los viajes tuvieron un papel clave en el proceso de apertura de miras y que provocó que, bien a traves de lo publicado en las revistas por los “arquitectos viajeros” o por el reflejo que tuvo lo conocido fuera de nuestras fronteras en proyectos y obras concretas, un buen numero de arquitectos, que no tuvieron la posibilidad de viajar, pudieron conocer que existía una realidad muy distinta a la que los profesores en la Escuela les habían enseñado o a la que estaban acostumbrados a ver en otros arquitectos de generaciones anteriores basada, en buena medida, en la recuperación de un estilo propio nacional centrandose en los historicismos. A lo largo de la investigación trataremos de ver que efecto produjo la apertura de fronteras y que papel tuvieron los viajes en dicho proceso. También nos centraremos en comprobar hasta qué punto cambió la manera de ver la arquitectura de los protagonistas del viaje y de aquellos que recibieron la información por ellos encontrada. Veremos cómo dicha información es cuantificable, clasificable y demostrable en propuestas concretas. Será importante ver que motivó su salida, que buscaban y que encontraron así como, entre las influencias recibidas, cuales tuvieron un mayor calado: las propuestas europeas o las americanas, y dentro de las primeras, las holandesas, las alemanas o las francesas. Los objetivos que se persigue conseguir son: contribuir a un mayor conocimiento de la arquitectura entre 1920 y 1960 a través de las conexiones internacionales y el ensanchamiento de horizontes, recopilar, clasificar y analizar todo el material obtenido relacionando los viajes con las biografías de los arquitectos protagonistas, estudiar qué interesa a los arquitectos españoles cuando van fuera y porqué (será importante ver quiénes de entre los arquitectos son más abiertos a las corrientes europeas y que motivó su salida en busca de nuevos lenguajes), ordenar las reflexiones que exponen los arquitectos a la vuelta de sus viajes y ver en que propuestas y de qué forma los arquitectos plasman lo encontrado en su búsqueda en el extranjero. Para conseguir estos objetivos estructuraremos la investigación en tres bloques: En el primero de ellos nos centraremos en profundizar como era la arquitectura española a principios del siglo XX. Para poder entender mejor las transformaciones que los viajes provocaron será necesario conocer cuál era la arquitectura predominante en estos años que, como veremos, consistía en la búsqueda de un estilo nacional propio dirigiendo su mirada al pasado. También veremos cómo un grupo de arquitectos (Palacios, Flórez, Torres Balbás o Anasagasti) fueron pioneros en el deseo de mirar fuera de nuestras fronteras así como dedicaremos especial atención a cómo era la formación en la Escuela. El segundo capítulo, que abarca desde principios de los años 20 hasta la Guerra Civil, tratará de demostrar la importancia que tuvo en el proceso de permeabilidad frente a las corrientes extranjeras los viajes que los arquitectos realizaron y que, sumados a la llegada de revistas y las visitas de los principales arquitectos modernos, provocaron una primera apertura como respuesta a los historicismos predominantes. Entre los arquitectos viajeros destacaremos las figuras de Fernando García Mercadal (incidiendo en su importancia como difusor de la arquitectura moderna), Rafael Bergamín, Ramón Sánchez Arcas y Luis Lacasa. También nos detendremos en ver la importancia que tuvieron las exposiciones (con especial atención a la de Artes Decorativas de París de 1925 y la de la Deutscher Werkbund en Stuttgart en 1927) que se realizaron estos años y como llegó la información a nuestro país. El tercer y último capítulo arranca con el periodo de posguerra, una época de transición pues los viajes que se realizaron fueron escasos y en la mayoría de las ocasiones no se llevaron a cabo en busca de nuevos caminos. Veremos cómo tras la Guerra y de la mano de la dictadura se produce, de la misma forma que en la Alemania nazi, una vuelta al interés por los historicismos de principios de siglo. Para entender mejor este periodo haremos un repaso a la obra de Luis Gutiérrez Soto por ser explicativa de lo cambiante de las corrientes arquitectónicas de estos años. Tras el análisis de los sucedido en posguerra nos dedicaremos a analizar, de la misma forma que en el primer periodo, la manera en que se produjo el rechazo al estilo nacional de nuevo gracias a la llegada de libros y revistas, lo publicado por las revistas españolas, las visitas de arquitectos de prestigio así como los viajes de un grupo de arquitectos que, de manera individual, salieron al extranjero en busca de apoyo, de referencias en los que cimentar su arquitectura. De este grupo, por la importancia que los propios protagonistas dieron al hecho de viajar como complemento a su formación y por la manera en la que reflejaron lo aprendido en proyectos concretos destacamos a Francisco de Asís Cabrero, Miguel Fisac, Ramón Vázquez Molezún y Francisco Javier Sáenz de Oiza. De nuevo, igual que en el primer capítulo finalizaremos la investigación dedicando un apartado a las exposiciones (fundamentalmente la Interbau de Berlín de 1957) celebradas en estos años. Para finalizar estableceremos las conclusiones que nos llevarán a comprobar hasta qué punto la arquitectura española en los periodos previo y posterior a la guerra cambió y en qué medida tuvieron importancia los viajes que los arquitectos españoles realizaron al extranjero en dicho cambio… ABSTRACT This thesis aims to look at the ways which Spanish architecture changed in the period between 1920 and 1960, and the way it was effected by travelling . The research will demonstrate that, together with other factors, such as the arrival of magazines, books, conferences and architects like Le Corbusier, Gropius, Mendelsohn, Neutra or Aalto, travelling played a key role in architecture. Also, it changed the way we look at architecture. Travelling, thanks to the published journals by "travelling architects” and the influence that they had - known beyond our borders in projects and concrete works, caused the arrival of a new type of architects. Even those who were not able to travel, knew that there was a very different reality than the reality the teachers at the school had taught them. Also, the “new reality” was different from the one that they were used to seeing in other architects of earlier generations, based mainly on the recovery of a national style focused on historicism. Throughout the investigation I will try to show the effect that the opening of borders and travelling had on this process. We will also focus on checking how it changed the way we see the architecture, from the point of view of the protagonists of the travels and those who received the information . We will see how that information is quantifiable and demonstrably classifiable into concrete proposals. It will be important to see which led to their departure. They sought and found among the influences, which had a major impact: the proposed European or American, and within the first, Dutch, German or French. The objectives to be achieved are: To contribute to a better understanding of architecture between 1920 to 1960 by the international connections, and widening the horizon. To collect, classify and analyze all obtained materials related to travelling with biographies of architects protagonists. To study what the interests of the Spanish architects were when they went abroad and why ( it will be important to see who among those architects were more open to European trends and prompted their departures for new languages). To order reflections exhibited by architects around his travels and to see what proposals and how architects reflected what they found in their search abroad. To achieve these objectives we will structure this research in three areas: In the first one, we will focus on how the Spanish architecture in the early twentieth century was. To better understand the changes that travelling caused it is necessary to understand that the predominant architecture in these years was in pursuit of its own national style, directing its gaze to the past, like we shall see. We will also see how a group of architects (Palacios, Flórez, Torres Balbás or Anasagasti) pioneered by looking beyond our borders and devote special attention to how the training was in the School. The second chapter, ranging from early 20s to the Civil War, will try to demonstrate the importance that travelling had in the process of diffusion currents. That, together with the arrival of magazines and visits by leading modern architects, led to a first opening in architecture, in response to the prevailing historicism. Among the travelers we highlight architects like Fernando García Mercadal (stressing his importance as a disseminator of modern architecture), Rafael Bergamín, Ramón Sánchez Arcas and Luis Lacasa. We will also stop to see the importance of exhibitions (with special attention to the Decorative Arts in Paris in 1925 and the Deutscher Werkbund in Stuttgart in 1927) that were held over the years and how the information came to our country . The third and final chapter starts with the post war period, a time of transition for the travels, which were scarce and in most cases were not conducted on new roads. We will see that after the war and with the dictatorship, a return to interest in historicism of the century occurred, just as in Nazi Germany. For better understanding of this period we will review the work of Luis Gutiérrez Soto. His work is explanatory of the changing of architectural trends over these years. After analyzing the case in post war, we turn to analyze, in the same way as in the first period, the manner in which rejection occurred in national style again with the arrival of books and magazines. Visits by prestigious architects and group travels of architects who, individually, went abroad in search of support, references on which to base their architecture. In this group of architects, due to the importance that the protagonists gave to the act of traveling to improve their training and the way in which they reflected what they learned in practical projects, I include Francisco de Asís Cabrero, Miguel Fisac, Ramon Vazquez Molezún and Francisco Javier Saenz de Oiza. Again, as in the first chapter, we will conclude the investigation dedicating a section to the exhibitions held in these years (mainly Interbau Berlin, 1957). Finally establishing conclusions lead us to see how far the Spanish architecture in the pre- and post -war periods changed and how much the trips were important to Spanish architects who performed abroad on the change...

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La adecuada estimación de avenidas de diseño asociadas a altos periodos de retorno es necesaria para el diseño y gestión de estructuras hidráulicas como presas. En la práctica, la estimación de estos cuantiles se realiza normalmente a través de análisis de frecuencia univariados, basados en su mayoría en el estudio de caudales punta. Sin embargo, la naturaleza de las avenidas es multivariada, siendo esencial tener en cuenta características representativas de las avenidas, tales como caudal punta, volumen y duración del hidrograma, con el fin de llevar a cabo un análisis apropiado; especialmente cuando el caudal de entrada se transforma en un caudal de salida diferente durante el proceso de laminación en un embalse o llanura de inundación. Los análisis de frecuencia de avenidas multivariados han sido tradicionalmente llevados a cabo mediante el uso de distribuciones bivariadas estándar con el fin de modelar variables correlacionadas. Sin embargo, su uso conlleva limitaciones como la necesidad de usar el mismo tipo de distribuciones marginales para todas las variables y la existencia de una relación de dependencia lineal entre ellas. Recientemente, el uso de cópulas se ha extendido en hidrología debido a sus beneficios en relación al contexto multivariado, permitiendo superar los inconvenientes de las técnicas tradicionales. Una copula es una función que representa la estructura de dependencia de las variables de estudio, y permite obtener la distribución de frecuencia multivariada de dichas variables mediante sus distribuciones marginales, sin importar el tipo de distribución marginal utilizada. La estimación de periodos de retorno multivariados, y por lo tanto, de cuantiles multivariados, también se facilita debido a la manera en la que las cópulas están formuladas. La presente tesis doctoral busca proporcionar metodologías que mejoren las técnicas tradicionales usadas por profesionales para estimar cuantiles de avenida más adecuados para el diseño y la gestión de presas, así como para la evaluación del riesgo de avenida, mediante análisis de frecuencia de avenidas bivariados basados en cópulas. Las variables consideradas para ello son el caudal punta y el volumen del hidrograma. Con el objetivo de llevar a cabo un estudio completo, la presente investigación abarca: (i) el análisis de frecuencia de avenidas local bivariado centrado en examinar y comparar los periodos de retorno teóricos basados en la probabilidad natural de ocurrencia de una avenida, con el periodo de retorno asociado al riesgo de sobrevertido de la presa bajo análisis, con el fin de proporcionar cuantiles en una estación de aforo determinada; (ii) la extensión del enfoque local al regional, proporcionando un procedimiento completo para llevar a cabo un análisis de frecuencia de avenidas regional bivariado para proporcionar cuantiles en estaciones sin aforar o para mejorar la estimación de dichos cuantiles en estaciones aforadas; (iii) el uso de cópulas para investigar tendencias bivariadas en avenidas debido al aumento de los niveles de urbanización en una cuenca; y (iv) la extensión de series de avenida observadas mediante la combinación de los beneficios de un modelo basado en cópulas y de un modelo hidrometeorológico. Accurate design flood estimates associated with high return periods are necessary to design and manage hydraulic structures such as dams. In practice, the estimate of such quantiles is usually done via univariate flood frequency analyses, mostly based on the study of peak flows. Nevertheless, the nature of floods is multivariate, being essential to consider representative flood characteristics, such as flood peak, hydrograph volume and hydrograph duration to carry out an appropriate analysis; especially when the inflow peak is transformed into a different outflow peak during the routing process in a reservoir or floodplain. Multivariate flood frequency analyses have been traditionally performed by using standard bivariate distributions to model correlated variables, yet they entail some shortcomings such as the need of using the same kind of marginal distribution for all variables and the assumption of a linear dependence relation between them. Recently, the use of copulas has been extended in hydrology because of their benefits regarding dealing with the multivariate context, as they overcome the drawbacks of the traditional approach. A copula is a function that represents the dependence structure of the studied variables, and allows obtaining the multivariate frequency distribution of them by using their marginal distributions, regardless of the kind of marginal distributions considered. The estimate of multivariate return periods, and therefore multivariate quantiles, is also facilitated by the way in which copulas are formulated. The present doctoral thesis seeks to provide methodologies that improve traditional techniques used by practitioners, in order to estimate more appropriate flood quantiles for dam design, dam management and flood risk assessment, through bivariate flood frequency analyses based on the copula approach. The flood variables considered for that goal are peak flow and hydrograph volume. In order to accomplish a complete study, the present research addresses: (i) a bivariate local flood frequency analysis focused on examining and comparing theoretical return periods based on the natural probability of occurrence of a flood, with the return period associated with the risk of dam overtopping, to estimate quantiles at a given gauged site; (ii) the extension of the local to the regional approach, supplying a complete procedure for performing a bivariate regional flood frequency analysis to either estimate quantiles at ungauged sites or improve at-site estimates at gauged sites; (iii) the use of copulas to investigate bivariate flood trends due to increasing urbanisation levels in a catchment; and (iv) the extension of observed flood series by combining the benefits of a copula-based model and a hydro-meteorological model.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RESUMEN: Se propone un abordaje acerca de la concepción temporal cíclica en arquitectura. La investigación se centra, en principio, en la noción de «Eterno Retorno» desde un punto de vista ontológico asociado a las civilizaciones arcaicas. En seguida, y tiendo por base el diálogo cíclico primitivo por vía de figuras arquetípicas, se estudia ese concepto en arquitectura cuya formulación, aunque en otros términos, remonta a la noción de «tipo» propuesta por Quatremère de Quincy en el siglo XVIII, época en la cual se profundizó el estudio de los orígenes arquitectónicos. Son muchos los casos en los que la evolución y las diferentes apropiaciones de este término no refuerzan la dialéctica platónica propuesta inicialmente por Quatremère en cuanto mediación entre pasado, presente y futuro. Este estudio revisa su entendimiento original encuadrado en la idea de un «Retorno Eterno» y como posibilidad para la práctica contemporánea. RESUME: This study proposes an approach to the idea of a cyclical time in Architecture. Initially the work focuses on the notion of the «Eternal Return» from an ontological point of view connected to the archaic civilizations. Then, based on the primitive cyclic dialogue trough the archetypical figures, it studies about the idea of this concept in Architecture whose formulation, although in other terms, goes back to the notion of «type» proposed by Quatremère Quincy during the eighteenth century, at which time the theories went deep into the study of the architectural fundamentals. The evolution and the different appropriations of this concept not always have enhanced the Platonic dialectic proposed by Quatremère as mediation between past, present and future. This study aims to understand his original meaning framed on the notion of the «Eternal Return» and as a possibility the contemporary practice.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La informática teórica es una disciplina básica ya que la mayoría de los avances en informática se sustentan en un sólido resultado de esa materia. En los últimos a~nos debido tanto al incremento de la potencia de los ordenadores, como a la cercanía del límite físico en la miniaturización de los componentes electrónicos, resurge el interés por modelos formales de computación alternativos a la arquitectura clásica de von Neumann. Muchos de estos modelos se inspiran en la forma en la que la naturaleza resuelve eficientemente problemas muy complejos. La mayoría son computacionalmente completos e intrínsecamente paralelos. Por este motivo se les está llegando a considerar como nuevos paradigmas de computación (computación natural). Se dispone, por tanto, de un abanico de arquitecturas abstractas tan potentes como los computadores convencionales y, a veces, más eficientes: alguna de ellas mejora el rendimiento, al menos temporal, de problemas NPcompletos proporcionando costes no exponenciales. La representación formal de las redes de procesadores evolutivos requiere de construcciones, tanto independientes, como dependientes del contexto, dicho de otro modo, en general una representación formal completa de un NEP implica restricciones, tanto sintácticas, como semánticas, es decir, que muchas representaciones aparentemente (sintácticamente) correctas de casos particulares de estos dispositivos no tendrían sentido porque podrían no cumplir otras restricciones semánticas. La aplicación de evolución gramatical semántica a los NEPs pasa por la elección de un subconjunto de ellos entre los que buscar los que solucionen un problema concreto. En este trabajo se ha realizado un estudio sobre un modelo inspirado en la biología celular denominado redes de procesadores evolutivos [55, 53], esto es, redes cuyos nodos son procesadores muy simples capaces de realizar únicamente un tipo de mutación puntual (inserción, borrado o sustitución de un símbolo). Estos nodos están asociados con un filtro que está definido por alguna condición de contexto aleatorio o de pertenencia. Las redes están formadas a lo sumo de seis nodos y, teniendo los filtros definidos por una pertenencia a lenguajes regulares, son capaces de generar todos los lenguajes enumerables recursivos independientemente del grafo subyacente. Este resultado no es sorprendente ya que semejantes resultados han sido documentados en la literatura. Si se consideran redes con nodos y filtros definidos por contextos aleatorios {que parecen estar más cerca a las implementaciones biológicas{ entonces se pueden generar lenguajes más complejos como los lenguajes no independientes del contexto. Sin embargo, estos mecanismos tan simples son capaces de resolver problemas complejos en tiempo polinomial. Se ha presentado una solución lineal para un problema NP-completo, el problema de los 3-colores. Como primer aporte significativo se ha propuesto una nueva dinámica de las redes de procesadores evolutivos con un comportamiento no determinista y masivamente paralelo [55], y por tanto todo el trabajo de investigación en el área de la redes de procesadores se puede trasladar a las redes masivamente paralelas. Por ejemplo, las redes masivamente paralelas se pueden modificar de acuerdo a determinadas reglas para mover los filtros hacia las conexiones. Cada conexión se ve como un canal bidireccional de manera que los filtros de entrada y salida coinciden. A pesar de esto, estas redes son computacionalmente completas. Se pueden también implementar otro tipo de reglas para extender este modelo computacional. Se reemplazan las mutaciones puntuales asociadas a cada nodo por la operación de splicing. Este nuevo tipo de procesador se denomina procesador splicing. Este modelo computacional de Red de procesadores con splicing ANSP es semejante en cierto modo a los sistemas distribuidos en tubos de ensayo basados en splicing. Además, se ha definido un nuevo modelo [56] {Redes de procesadores evolutivos con filtros en las conexiones{ , en el cual los procesadores tan solo tienen reglas y los filtros se han trasladado a las conexiones. Dicho modelo es equivalente, bajo determinadas circunstancias, a las redes de procesadores evolutivos clásicas. Sin dichas restricciones el modelo propuesto es un superconjunto de los NEPs clásicos. La principal ventaja de mover los filtros a las conexiones radica en la simplicidad de la modelización. Otras aportaciones de este trabajo ha sido el dise~no de un simulador en Java [54, 52] para las redes de procesadores evolutivos propuestas en esta Tesis. Sobre el término "procesador evolutivo" empleado en esta Tesis, el proceso computacional descrito aquí no es exactamente un proceso evolutivo en el sentido Darwiniano. Pero las operaciones de reescritura que se han considerado pueden interpretarse como mutaciones y los procesos de filtrado se podrían ver como procesos de selección. Además, este trabajo no abarca la posible implementación biológica de estas redes, a pesar de ser de gran importancia. A lo largo de esta tesis se ha tomado como definición de la medida de complejidad para los ANSP, una que denotaremos como tama~no (considerando tama~no como el número de nodos del grafo subyacente). Se ha mostrado que cualquier lenguaje enumerable recursivo L puede ser aceptado por un ANSP en el cual el número de procesadores está linealmente acotado por la cardinalidad del alfabeto de la cinta de una máquina de Turing que reconoce dicho lenguaje L. Siguiendo el concepto de ANSP universales introducido por Manea [65], se ha demostrado que un ANSP con una estructura de grafo fija puede aceptar cualquier lenguaje enumerable recursivo. Un ANSP se puede considerar como un ente capaz de resolver problemas, además de tener otra propiedad relevante desde el punto de vista práctico: Se puede definir un ANSP universal como una subred, donde solo una cantidad limitada de parámetros es dependiente del lenguaje. La anterior característica se puede interpretar como un método para resolver cualquier problema NP en tiempo polinomial empleando un ANSP de tama~no constante, concretamente treinta y uno. Esto significa que la solución de cualquier problema NP es uniforme en el sentido de que la red, exceptuando la subred universal, se puede ver como un programa; adaptándolo a la instancia del problema a resolver, se escogerín los filtros y las reglas que no pertenecen a la subred universal. Un problema interesante desde nuestro punto de vista es el que hace referencia a como elegir el tama~no optimo de esta red.---ABSTRACT---This thesis deals with the recent research works in the area of Natural Computing {bio-inspired models{, more precisely Networks of Evolutionary Processors first developed by Victor Mitrana and they are based on P Systems whose father is Georghe Paun. In these models, they are a set of processors connected in an underlying undirected graph, such processors have an object multiset (strings) and a set of rules, named evolution rules, that transform objects inside processors[55, 53],. These objects can be sent/received using graph connections provided they accomplish constraints defined at input and output filters processors have. This symbolic model, non deterministic one (processors are not synchronized) and massive parallel one[55] (all rules can be applied in one computational step) has some important properties regarding solution of NP-problems in lineal time and of course, lineal resources. There are a great number of variants such as hybrid networks, splicing processors, etc. that provide the model a computational power equivalent to Turing machines. The origin of networks of evolutionary processors (NEP for short) is a basic architecture for parallel and distributed symbolic processing, related to the Connection Machine as well as the Logic Flow paradigm, which consists of several processors, each of them being placed in a node of a virtual complete graph, which are able to handle data associated with the respective node. All the nodes send simultaneously their data and the receiving nodes handle also simultaneously all the arriving messages, according to some strategies. In a series of papers one considers that each node may be viewed as a cell having genetic information encoded in DNA sequences which may evolve by local evolutionary events, that is point mutations. Each node is specialized just for one of these evolutionary operations. Furthermore, the data in each node is organized in the form of multisets of words (each word appears in an arbitrarily large number of copies), and all the copies are processed in parallel such that all the possible events that can take place do actually take place. Obviously, the computational process just described is not exactly an evolutionary process in the Darwinian sense. But the rewriting operations we have considered might be interpreted as mutations and the filtering process might be viewed as a selection process. Recombination is missing but it was asserted that evolutionary and functional relationships between genes can be captured by taking only local mutations into consideration. It is clear that filters associated with each node allow a strong control of the computation. Indeed, every node has an input and output filter; two nodes can exchange data if it passes the output filter of the sender and the input filter of the receiver. Moreover, if some data is sent out by some node and not able to enter any node, then it is lost. In this paper we simplify the ANSP model considered in by moving the filters from the nodes to the edges. Each edge is viewed as a two-way channel such that the input and output filters coincide. Clearly, the possibility of controlling the computation in such networks seems to be diminished. For instance, there is no possibility to loose data during the communication steps. In spite of this and of the fact that splicing is not a powerful operation (remember that splicing systems generates only regular languages) we prove here that these devices are computationally complete. As a consequence, we propose characterizations of two complexity classes, namely NP and PSPACE, in terms of accepting networks of restricted splicing processors with filtered connections. We proposed a uniform linear time solution to SAT based on ANSPFCs with linearly bounded resources. This solution should be understood correctly: we do not solve SAT in linear time and space. Since any word and auxiliary word appears in an arbitrarily large number of copies, one can generate in linear time, by parallelism and communication, an exponential number of words each of them having an exponential number of copies. However, this does not seem to be a major drawback since by PCR (Polymerase Chain Reaction) one can generate an exponential number of identical DNA molecules in a linear number of reactions. It is worth mentioning that the ANSPFC constructed above remains unchanged for any instance with the same number of variables. Therefore, the solution is uniform in the sense that the network, excepting the input and output nodes, may be viewed as a program according to the number of variables, we choose the filters, the splicing words and the rules, then we assign all possible values to the variables, and compute the formula.We proved that ANSP are computationally complete. Do the ANSPFC remain still computationally complete? If this is not the case, what other problems can be eficiently solved by these ANSPFCs? Moreover, the complexity class NP is exactly the class of all languages decided by ANSP in polynomial time. Can NP be characterized in a similar way with ANSPFCs?

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el presente proyecto se propone una nueva zonificación sísmica para América Central, a partir de la cual se ha realizado el cálculo de peligrosidad sísmica a nivel regional. Dicha zonificación y el posterior cálculo de peligrosidad desarrollado se presentan como actualización de los resultados del estudio previo desarrollado para la región (Benito et al., 2012), realizando asimismo la comparación entre los resultados de ambos estudios. En primer lugar se ha realizado la revisión de la zonificación existente, modificando la geometría de algunas zonas en base al conocimiento generado en los últimos años sobre todo en lo que se refiere a la geometría de la subducción,que varía de ángulo a lo largo de la trinchera Mesoamericana. Ello conlleva, a su vez, cambios en la sismicidad asignada a las zonas corticales y de subducción interfase. Los cambios y ajustes entre zonas se realizaron contando con el consenso de diferentes expertos en la materia y en colaboración con el Dr. Guillermo Alvarado, vulcanólogo del Instituto Costarricense de Electricidad (ICE), que desarrolló una estancia en Madrid, para trabajar con el Grupo de Investigación de Ingeniería Sísmica de la UPM (GIIS) en noviembre de 2014. Para la propuesta de nueva zonificación, se ha partido del catálogo sísmico depurado hasta 2011, completo y homogeneizado a magnitud momento, Mw. Dicho catálogo recoge una gran actividad sísmica y fue confeccionado dentro del proyecto RESIS II, en el cual participó el Grupo de Ingeniería Sísmica. Se ha seleccionado de dicho catálogo la sismicidad registrada en las nuevas zonas sismogenéticas propuestas y se han calculado los parámetros sísmicos de cada zona: la tasa acumulada de ocurrencia de terremotos, la magnitud máxima y el parámetro beta. Se ha considerado que la sismicidad se ajusta al modelo de recurrencia de Gutenberg-Richter, el cual establece una proporción constante entre el número de sismos grandes y pequeños para una determinada zona. Para la estimación de los parámetros sísmicos se ha utilizado el software Expel, desarrollado por el Grupo de Investigación de Ingeniería Sísmica de la UPM. Utilizando las zonas sismogenéticas propuestas y sus parámetros sísmicos,se ha calculado la amenaza sísmica en toda la región de Centroamérica, evaluada en cada punto como la probabilidad de que el movimiento del suelo exceda valores de aceleración prefijados, y obteniendo así la curva de peligrosidad en puntos de una malla cubriendo la región de estudio. Los cálculos han sido realizados empleando el software específico de peligrosidad sísmica CRISIS 2014. Los resultados se presentan en mapas de peligrosidad obtenidos para diferentes periodos de retorno en términos de aceleración pico (PGA), así como de otras aceleraciones espectrales SA (T) para diversos periodos estructurales T en el rango de 0,1 a 2 s. Para el diseño de los mapas se ha utilizado el software ArcGIS 10.1. Adicionalmente, se ha realizado un análisis de sensibilidad en los resultados ante diferentes propuestas de profundidad de la zonificación interfase,estudiando así el impacto de dichos cambios en los parámetros sísmicos de las zonas y en los resultados del cálculo de la peligrosidad. Finalmente, se han comparado los resultados obtenidos en este trabajo (tanto los parámetros sísmicos de la nueva zonificación como las aceleraciones resultantes del estudio de peligrosidad) con los resultados pertenecientes al estudio recogido en el libro Amenaza Sísmica en América Central de Benito et al.(2010), y en la posterior publicación de Benito et al. (2012), analizando así las principales diferencias entre ambos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente investigación tuvo como objetivo evaluar el rendimiento y riesgo que presenta la cartera de fincas productoras de sorgo, en los estados Portuguesa y Barinas (Venezuela), adscritas al Programa de Extensión Agrícola Italven S. A. (PEAISA). La muestra fue conformada por 39 fincas localizadas en tres municipios del estado Portuguesa y 72 fincas ubicadas en siete municipios del estado Barinas. En todas se produjo sorgo, a la salida de lluvias, durante 2006. Se consideraron las variables estado, municipio, área cosechada, híbridos cultivados, rendimiento y coeficiente de variación (riesgo). Se empleó distribución de frecuencias de la superficie cosechada de sorgo por finca para medir la concentración de la cartera y se realizaron comparaciones de promedio de rendimiento con las pruebas de t de student y de Tukey, además se utilizó la curva normal para determinar probabilidades de rendimiento. Entre los resultados más importantes destacan: 1) La cartera del PEAISA, conformada por fincas pequeñas y medianas, no presenta riesgo de concentración en un determinado segmento de tamaño, pero la producción total está concentrada (81,2%) en el estado Barinas, 2) Aunque se ubicó en la media nacional, se logró un mayor rendimiento promedio/ha de sorgo en el estado Barinas en comparación con Portuguesa, con riesgo de explotación similar en ambos estados, 3) El híbrido de sorgo Tecsen 120 igualó al Chaguarama VII, pero superó en rendimiento al Himeca 101, híbrido que pudiera ser descartado de la cartera por su bajo rendimiento y mayor riesgo de explotación. Esta información se analizó adicionalmente con una matriz denominada productividad-riesgo, que fue un desarrollo original de este trabajo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En 1949 el arquitecto Casto Fernández-Shaw realiza un viaje de dos meses a diversas ciudades de EEUU (Los Ángeles, Nueva York, Washington...), y según sus propias palabras: "Confieso que me encontré en mi elemento. Por una parte veía realizados... mis sueños... En mi álbum de imágenes impactantes ocupa un puesto de honor la del helicóptero con la correspondencia aterrizando en la terraza de la Casa de Correos de Los Ángeles, como yo deseaba para mi Estación de Enlace madrileña". El proyecto, no realizado, al que se refiere Casto, está fechado en 1933 (reformado en 1936), adelantándose en su imaginación casi veinte años a lo que después visitó con admiración. Casto Fernández-Shaw (1896-1978), titulado en 1919, puede considerarse posiblemente el discípulo más cercano al arquitecto gallego Antonio Palacios, pero con un lenguaje personal contemporáneo. Como sugiere Miguel Ángel Baldellou: "Fernández-Shaw es capaz de reinterpretar y dar salida en forma de vanguardia a una tradición sustentada por Palacios de forma magistral." Así pues, sus referentes se mueven entre lo quimérico y el pragmatismo racionalista de principios del siglo XX, con importantes influencias de la arquitectura regionalista e historicista de sus maestros, Aníbal Álvarez, Modesto López Otero y, sobre todo, Antonio Palacios. En sus dibujos de ciudades aerostáticas y acorazadas, de garajes radiales, de torres espectáculo, de monumentos a la ciencia, de autogiródromos, casas aerotransportadas y hangares aerodinámicos..., descubrimos a un arquitecto que emprende un camino desde el futurismo más cercano a las ensoñaciones de una ciudad industrial dominada por la tecnología hasta una utopía basada en la creencia del triunfo de la civilización, las grandes conquistas de la humanidad y la paz universal. El objetivo de esta comunicación es analizar la búsqueda de Casto de una respuesta formal a su viaje interior hacia la utopía a través de las vanguardias figurativas de comienzos del siglo XX. Estudiaremos sus proyectos no construidos a través de sus dibujos, que representan grandes edificios futuristas, descontextualizados del entorno, obras másicas y monumentalistas de fuerte contenido simbólico. Y los compararemos con otras obras no materializadas de arquitectos contemporáneos como Sant¿Elia, Tchernikov, Tatlin, Poelzig... que tuvieron mayor o menor influencia en su carrera

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis recoje un trabajo experimental centrado en profundizar sobre el conocimiento de los bloques detectores monolíticos como alternativa a los detectores segmentados para tomografía por emisión de positrones (Positron Emission Tomography, PET). El trabajo llevado a cabo incluye el desarrollo, la caracterización, la puesta a punto y la evaluación de prototipos demostradores PET utilizando bloques monolíticos de ortosilicato de lutecio ytrio dopado con cerio (Cerium-Doped Lutetium Yttrium Orthosilicate, LYSO:Ce) usando sensores compatibles con altos campos magnéticos, tanto fotodiodos de avalancha (Avalanche Photodiodes, APDs) como fotomultiplicadores de silicio (Silicon Photomultipliers, SiPMs). Los prototipos implementados con APDs se construyeron para estudiar la viabilidad de un prototipo PET de alta sensibilidad previamente simulado, denominado BrainPET. En esta memoria se describe y caracteriza la electrónica frontal integrada utilizada en estos prototipos junto con la electrónica de lectura desarrollada específicamente para los mismos. Se muestran los montajes experimentales para la obtención de las imágenes tomográficas PET y para el entrenamiento de los algoritmos de red neuronal utilizados para la estimación de las posiciones de incidencia de los fotones γ sobre la superficie de los bloques monolíticos. Con el prototipo BrainPET se obtuvieron resultados satisfactorios de resolución energética (13 % FWHM), precisión espacial de los bloques monolíticos (~ 2 mm FWHM) y resolución espacial de la imagen PET de 1,5 - 1,7 mm FWHM. Además se demostró una capacidad resolutiva en la imagen PET de ~ 2 mm al adquirir simultáneamente imágenes de fuentes radiactivas separadas a distancias conocidas. Sin embargo, con este prototipo se detectaron también dos limitaciones importantes. En primer lugar, se constató una falta de flexibilidad a la hora de trabajar con un circuito integrado de aplicación específica (Application Specific Integrated Circuit, ASIC) cuyo diseño electrónico no era propio sino comercial, unido al elevado coste que requieren las modificaciones del diseño de un ASIC con tales características. Por otra parte, la caracterización final de la electrónica integrada del BrainPET mostró una resolución temporal con amplio margen de mejora (~ 13 ns FWHM). Tomando en cuenta estas limitaciones obtenidas con los prototipos BrainPET, junto con la evolución tecnológica hacia matrices de SiPM, el conocimiento adquirido con los bloques monolíticos se trasladó a la nueva tecnología de sensores disponible, los SiPMs. A su vez se inició una nueva estrategia para la electrónica frontal, con el ASIC FlexToT, un ASIC de diseño propio basado en un esquema de medida del tiempo sobre umbral (Time over Threshold, ToT), en donde la duración del pulso de salida es proporcional a la energía depositada. Una de las características más interesantes de este esquema es la posibilidad de manejar directamente señales de pulsos digitales, en lugar de procesar la amplitud de las señales analógicas. Con esta arquitectura electrónica se sustituyen los conversores analógicos digitales (Analog to Digital Converter, ADCs) por conversores de tiempo digitales (Time to Digital Converter, TDCs), pudiendo implementar éstos de forma sencilla en matrices de puertas programmable ‘in situ’ (Field Programmable Gate Array, FPGA), reduciendo con ello el consumo y la complejidad del diseño. Se construyó un nuevo prototipo demostrador FlexToT para validar dicho ASIC para bloques monolíticos o segmentados. Se ha llevado a cabo el diseño y caracterización de la electrónica frontal necesaria para la lectura del ASIC FlexToT, evaluando su linealidad y rango dinámico, el comportamiento frente a ruido así como la no linealidad diferencial obtenida con los TDCs implementados en la FPGA. Además, la electrónica presentada en este trabajo es capaz de trabajar con altas tasas de actividad y de discriminar diferentes centelleadores para aplicaciones phoswich. El ASIC FlexToT proporciona una excelente resolución temporal en coincidencia para los eventos correspondientes con el fotopico de 511 keV (128 ps FWHM), solventando las limitaciones de resolución temporal del prototipo BrainPET. Por otra parte, la resolución energética con bloques monolíticos leidos por ASICs FlexToT proporciona una resolución energética de 15,4 % FWHM a 511 keV. Finalmente, se obtuvieron buenos resultados en la calidad de la imagen PET y en la capacidad resolutiva del demostrador FlexToT, proporcionando resoluciones espaciales en el centro del FoV en torno a 1,4 mm FWHM. ABSTRACT This thesis is focused on the development of experimental activities used to deepen the knowledge of monolithic detector blocks as an alternative to segmented detectors for Positron Emission Tomography (PET). It includes the development, characterization, setting up, running and evaluation of PET demonstrator prototypes with monolithic detector blocks of Cerium-doped Lutetium Yttrium Orthosilicate (LYSO:Ce) using magnetically compatible sensors such as Avalanche Photodiodes (APDs) and Silicon Photomultipliers (SiPMs). The prototypes implemented with APDs were constructed to validate the viability of a high-sensitivity PET prototype that had previously been simulated, denominated BrainPET. This work describes and characterizes the integrated front-end electronics used in these prototypes, as well as the electronic readout system developed especially for them. It shows the experimental set-ups to obtain the tomographic PET images and to train neural networks algorithms used for position estimation of photons impinging on the surface of monolithic blocks. Using the BrainPET prototype, satisfactory energy resolution (13 % FWHM), spatial precision of monolithic blocks (~ 2 mm FWHM) and spatial resolution of the PET image (1.5 – 1.7 mm FWHM) in the center of the Field of View (FoV) were obtained. Moreover, we proved the imaging capabilities of this demonstrator with extended sources, considering the acquisition of two simultaneous sources of 1 mm diameter placed at known distances. However, some important limitations were also detected with the BrainPET prototype. In the first place, it was confirmed that there was a lack of flexibility working with an Application Specific Integrated Circuit (ASIC) whose electronic design was not own but commercial, along with the high cost required to modify an ASIC design with such features. Furthermore, the final characterization of the BrainPET ASIC showed a timing resolution with room for improvement (~ 13 ns FWHM). Taking into consideration the limitations obtained with the BrainPET prototype, along with the technological evolution in magnetically compatible devices, the knowledge acquired with the monolithic blocks were transferred to the new technology available, the SiPMs. Moreover, we opted for a new strategy in the front-end electronics, the FlexToT ASIC, an own design ASIC based on a Time over Threshold (ToT) scheme. One of the most interesting features underlying a ToT architecture is the encoding of the analog input signal amplitude information into the duration of the output signals, delivering directly digital pulses. The electronic architecture helps substitute the Analog to Digital Converters (ADCs) for Time to Digital Converters (TDCs), and they are easily implemented in Field Programmable Gate Arrays (FPGA), reducing the consumption and the complexity of the design. A new prototype demonstrator based on SiPMs was implemented to validate the FlexToT ASIC for monolithic or segmented blocks. The design and characterization of the necessary front-end electronic to read-out the signals from the ASIC was carried out by evaluating its linearity and dynamic range, its performance with an external noise signal, as well as the differential nonlinearity obtained with the TDCs implemented in the FPGA. Furthermore, the electronic presented in this work is capable of working at high count rates and discriminates different phoswich scintillators. The FlexToT ASIC provides an excellent coincidence time resolution for events that correspond to 511 keV photopeak (128 ps FWHM), resolving the limitations of the poor timing resolution of the BrainPET prototype. Furthermore, the energy resolution with monolithic blocks read by FlexToT ASICs provides an energy resolution of 15.4 % FWHM at 511 keV. Finally, good results were obtained in the quality of the PET image and the resolving power of the FlexToT demonstrator, providing spatial resolutions in the centre of the FoV at about 1.4 mm FWHM.