863 resultados para Generación del 80


Relevância:

90.00% 90.00%

Publicador:

Resumo:

El presente trabajo tiene como marco conceptual la cuestión de-colonial y las referencias básicas nos remiten al pensamiento de Boaventura de Sousa Santos en la conformación del pensamiento post-abismal donde se critica al centro cultural y político de la cultura universal como forma de explotación y dominio. Se intenta realizar un breve ensayo sobre cómo a través de este marco y desde la literatura romántica de Esteban Echeverría y de sus obras emblemáticas: El Matadero y La Cautiva, logra generar una concepción de identidad y pertenencia del territorio argentino en el siglo XIX favoreciendo la cultura y la civilización euro-céntrica como estandarte de la nacionalidad, frente a los denominados subalternos: gauchos y pueblos originarios que pese a ser sujetos constructores del territorio no son considerados como tales por su nula integración a la denominada civilización y su pertenencia cultural e identitaria con la barbarie. Ello implica no sólo una lectura técnica, sino una lectura política e ideológica que subyace y en otras oportunidades emerge en la novela y el poema del escritor seleccionado y de toda su generación. Intenta a su vez realizar una deconstrucción de dichas obras con el objetivo de visibilizar las ideas de toda la generación del 37. Pretendemos con este trabajo aportar a enriquecer la ciencia geográfica desde un abordaje novedoso enmarcado en las tensiones del pensamiento hegemónico y los contra-hegemónicos

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En el artículo se contrastan los escritos de algunos de los poetas representativos del 27 en su faceta menos estudiada: la de críticos de poesía española contemporánea, relacionándolos entre sí y destacando la relevancia del modelo propugnado por T. S. Eliot. El ensayo literario de Pedro Salinas, Max Aub y Luis Cernuda se sitúa dentro del proceso 'en construcción' de la historia de la lírica de la modernidad que desarrollaron desde el exilio, coincidiendo o divergiendo en su concepción de aspectos como la tradición, el papel y la función de la crítica, la definición del canon, y, fundamentalmente, la idoneidad de un modelo u otro de análisis literario. La particularidad con la que los tres autores manejaban estos conceptos requiere investigaciones específicas sobre un importante material ensayístico. Estas páginas lo abordan para llamar la atención sobre una especie de "manual colectivo de poesía" que se fue gestando lejos de la efervescencia cultural que los aglutinó como grupo.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dentro de la llamada "generación del 68" en la narrativa española contemporánea, se ubica el "grupo leonés" de Juan Pedro Aparicio (1941), Luis Mateo Diez (1942) y José María Merino (1941), surgido en torno al filandón con una fuerte fascinación por los relatos de tradición oral y el compromiso con la reivindicación de la narratividad. Aunque han explorado mundos literarios muy distintos, su punto de conexión es un espacio que pertenece a la memoria de todos, y un personaje apócrifo común: Sabino Ordás, "patriarca de las letras leonesas". Estos escritores han producido, aparte del apócrifo, y paralelamente a su obra de ficción, un profuso material de reflexión crítica. Entre el discurso metatextual y el discurso narrativo se manifiesta una fuerte articulación cuyos mecanismos y estrategias nos permiten plantear una poética de la narrativa leonesa.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El uso de las partículas magnéticas ha venido a más durante los últimos 10 años. Lo anterior ha estado condicionado por factores como la amplia investigación en materiales a nivel atómico, los retos propuestos por las diferentes áreas de investigación donde los niveles nanométricos cobran importancia, la inherente innovación tecnológica que pueden aportar a la industria dichas escalas y finalmente, el impacto socioeconómico que pueden tener estos avances tecnológicos. Sin embargo, la traslación a la industria de los avances tecnológicos se ha visto limitada por la falta de estrategias, ya que el 88% del conocimiento se queda en Universidades y Centros de Investigación y el resto, 12%, pasa a la industria o es obtenido en ella. En este trabajo de investigación se ha tratado de completar el círculo de idea, conceptualización, generación de conocimiento, prototipo, prueba in vitro y prueba in vivo; todo ello para dejar el menor espacio posible entre Investigación e Industria. Se ha fabricado un recinto que permite la observación del comportamiento de las partículas magnéticas cuando están inmersas en un medio con viscosidad controlada y con una fuente magnética estática. De la observación experimental se han encontrado fenómenos magnéticos como la aglomeración y la autoorganización, que han sido aprovechados, no solo para ofrecer una solución alternativa a la corrección del desprendimiento de retina, sino también para promover las mejoras de métodos de separación y/o filtrado celular, ayuda en correcciones ortopédicas o en el diagnóstico y tratamiento de enfermedades degenerativas. Particularizando en la corrección del desprendimiento de retina, se ha desarrollado y patentado un Dispositivo Ocular cuya función es la de tapón del agujero retiniano, ayudando en la cicatrización de la retina. Dicho dispositivo ha sido evaluado en conejos albinos neozelandeses obteniéndose un éxito en la reaplicación de la retina del 80% y resultando su toxicidad en condición difusa tras evaluación anatomopatológica. Así mismo, el ferrofluido diseñado y fabricado se ha localizado en la zona de interacción magnética siempre y su disposición ha sido en el mayor de los casos en forma de placa pero también se han formado anillos; lo anterior no ha afectado en ningún sentido el éxito en la reaplicación de la retina. Por otro lado, no se han encontrado indicios de siderosis en la zona de interacción magnética, sus alrededores o el resto del globo ocular; ni las células han presentado apoptosis inducida por los materiales introducidos en el ojo. Sin embargo, se ha encontrado una fuerte necrosis inducida por la presión ejercida sobre la retina por el dispositivo ocular, evidenciando la necesidad de un mejor control de dicha presión. Tras la caracterización de los copos y la presión que éstos ejercen, se ha podido identificar que el dispositivo ocular se puede sintonizar para inducir una presión entre 0.5 y 2.5 mmHg; por tanto se puede vislumbrar que es posible minimizar la muerte celular causada en las células retinianas. Finalmente, tras la experimentación con conejos se ha observado que el dispositivo ocular resuelve los problemas inducidos por las siliconas o los gases e inclusive aporta ventajas competitivas de alto valor añadido como: no requerir de posiciones incómodas en el post-operatorio, no modifica las propiedades ópticas del ojo ya que no es necesario dejar silicona o gases en el interior del ojo, se pueden sellar múltiples agujeros retinianos, corrección de desprendimiento de retina inferior sin complicaciones asociadas, etc.; en definitiva mejora la calidad de vida domiciliaria del paciente además de solventar los problemas inducidos por las soluciones actuales. The using of magnetic particles has become more important during last 10 years. This event has been conditioned by several factors like a wide researching on materials at atomic level, the challenges proposed by different research areas where nanometric levels became important, the inherent technological innovation to the industry and finally, the socioeconomic impact of these kinds of technologies. However, the nanotechnological advances have not been well addressed to the industry since 88% of the acknowledge keeps on Universities and Research Centers, and the remaining 12% goes through the industry or is obtained in it. In this research work, we have tried to complete the entire process about idea, concept, acknowledge generation, prototyping and in vitro and in vivo testing; all to leave as little space as possible between Research and Industry. We have built an experimental hall which allows us the observation of magnetic particles' behavior when are immersing in a controlled viscous medium and under a static magnetic field. The experimental observation has been useful to identify and use two magnetic phenomena: agglomeration and self-organization; no only for retinal detachment, but also to improve cellular separation and/or filtered methods, orthopedic solutions or the diagnostic and treatment of degenerative diseases. Particularizing on retinal detachment, we have developed and patented an Ocular Device which its function is acting like a tampon of the retinal hole for helping with the scarring retina. The device has been evaluated in animals and the results show that we can achieve a success of 80% before rabbit’s death and non cell apoptosis, only necrosis, over the retina attached by the ocular device after anatomopathological evaluation. Also we have identified a diffuse toxicity after anatomopathological evaluation, so more experimenting must be proposed. Otherwise, the ferrofluid has been localized where the magnetic interaction area is located and its deposition has been in most cases plaque shape like but rings have also been observed; this has not affected in any way the successful reattachment of the retina. On the other hand, we have not found any evidence of siderosis in the magnetic interaction zone, near of or some other place of the ocular globe; and we did not find any apoptosis induced by the materials inserted within the eye. However full necrosis, exactly on the magnetic interaction zone, has been found and induced by the pressure exerted over the retina by the ocular device, evidencing the needing of its better control. After flakes’ characterization and its pressure exerted, we identified that the ocular device can be tuned in order to induce a pressure between 0.5 and 2.5 mmHg; therefore we can perceive that death caused to the retinal cells can be minimized. Finally, the experimentation has shown that the ocular device solves all problems induced by silicone or gases an even contributes with some other competitive advantages of high added value like: no uncomfortable postoperative positions, it does not modify any optical property of the eye because there is no needing of leaving silicone or gases inside the eye, many holes can be sealed, the inferior retinal detachment can be solve without any complications, etc.; definitively the ocular device improves patients’ quality of life.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La adolescencia es un período de crecimiento y desarrollo crítico e importante para la adquisición de hábitos saludables, en los que tanto la alimentación como la actividad física tienen un papel destacado. Junto con el primer año de vida, los requerimientos de energía y nutrientes son mayores que en cualquier otro periodo. Dentro de la nutrición, las vitaminas se ven involucradas en múltiples procesos celulares y tisulares, y sus deficiencias se vinculan a enfermedades crónicas degenerativas en la edad adulta como las cardiovasculares, cáncer, diabetes y osteoporosis, pero cuyos factores de riesgo se establecen a edades más tempranas. Las concentraciones sanguíneas de vitaminas están influenciadas en gran medida por la ingesta dietética, pero existen otros factores del individuo, entre los que cabe citar la composición corporal, la actividad física y condición física que, junto a la genética, podrían desempeñar un papel crucial. La presente memoria de Tesis Doctoral tiene como objetivo analizar el estado en vitaminas liposolubles y su relación con diversos factores de salud, entre los que destacan la composción corporal, hábitos dietéticos, actividad física y condición física en adolescentes Europeos. El trabajo está basado en los datos del estudio HELENA (“Healthy Lifestyle in Europe by Nutrition in Adolescence”). Se han analizado un total de 1089 adolescentes procedentes de diez ciudades en nueve paises europeos. Los principales resultados de este trabajo indican; a) La existencia de un estado deficiente en vitaminas liposolubles en adolescentes Europeos, especialmente de vitamina D, que alcanza valores del 80%. b) La estación del año, la latitud, el índice de masa corporal, la condición física, la ingesta de calcio dietético, los suplementos vitamínicos y la edad son las variables más relacionadas con el estado de vitamina D. c) A su vez, la capacidad cardiorrespiratoria puede predecir los niveles de vitamina D en los chicos, mientras que la fuerza muscular y masa magra parecen influir en los niveles de vitamina D en las chicas. La grasa corporal y el índice de masa corporal se correlaccionan negativamente con los niveles de vitamina D, especialmente en chicos. d) Un estado de vitamina D óptimo provoca una mejora de la masa ósea sólo cuando se tiene un nivel adecuado de actividad física. e) Se identifica la necesidad de establecer un consenso sobre los rangos aceptables y puntos de corte para las concentraciones sanguíneas de estas vitaminas en este grupo de población, ya que los actuales están extrapolados de la población adulta ABSTRACT Adolescence is a critical period of physiological growth and development as well as for the acquisition of healthy behaviors where both diet and physical activity play a major role. Apart from the first year of life, both energy and nutrient requirements are greatest during adolescence and the way to spend this energy by movement is also crucial. Vitamins are specifically involved in multiple cellular and tissue processes, and there is increasing evidence that deficiencies at these early ages could contribute to risk factors of chronic diseases like cardiovascular and cerebrovascular disease, cancer, diabetes and osteoporosis in adulthood, regardless data are scarce for younger ages. Vitamin concentrations are largely influenced by diet but other individual factors like body composition, physical activity or fitness together with genetics could play also an important role. The current thesis analyzes the liposoluble vitamin status in European adolescents and their relation with several health related factors, like body composción, dietary intake, physical activity and fitness. The work is based on data from the HELENA study ("Healthy Lifestyle in Europe by Nutrition in Adolescence"), for which a total of 1089 adolescents from ten different cities, in nine European countries were recruited. The main outcomes of this thesis are: a) There is a high liposoluble vitamin deficiency prevalence in European adolescents, specifically for vitamin D, which is presenting almost 80% of the adolescents. b) Season, latitude, BMI, fitness, dietary calcium intake, supplements intake and age are highly related to 25(OH)D concentrations found in European adolescents. c) Cardiorespiratory fitness may predict 25(OH)D concentrations in male adolescents, whereas upper limbs muscular strength and FFM may predict 25(OH)D concentrations in young females. Fat mass and BMI are inversely related to 25(OH)D concentrations, especially in males. d) The effect of 25(OH)D concentrations on bone mineral content in adolescents depends on physical activity levels. e) There is a need to establish a consensus on acceptable ranges and cut-offs of blood concentrations of these vitamins during adolescence, as currently they are extrapolated from adults.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En la actualidad más del 80 % de la energía eléctrica empleada en el mundo se obtiene a partir de combustibles de origen fósil. Sin embargo, estas fuentes de energía (gas natural, el carbón o el petróleo) presentan problemas de emisión de cantidades importantes de contaminantes a la atmósfera como CO, NOx y SOx. Estas emisiones están llevando a intentar reducir las emisiones enfocando el consumo a la utilización de fuentes de energía renovable, menos dañinas para el ambiente como la energía solar, la eólica, la biomasa, etc. En los almacenamientos de biomasa, ésta es potencialmente capaz de absorber oxígeno produciendo reacciones exotérmicas de oxidación. Si el calor producido en estas reacciones no se disipa adecuadamente, provoca un auto-calentamiento de la materia orgánica que puede ser causa de descomposición e inflamación. En el ámbito de la posible auto-combustión en el almacenamiento y manipulación de las biomasas existen diversos factores que influyen en la susceptibilidad térmica de las biomasas, es decir, en su tendencia a la oxidación y posterior inflamación de la materia. Esta Tesis Doctoral pretende evaluar el riesgo de auto-combustión de las biomasas almacenadas, para su uso en procesos de gasificación. En este estudio se ha trabajado con biomasas de origen agrícola, forestal y residual empleadas en procesos industriales de gasificación con distinta composición química. Los métodos empleados se han basado en técnicas clásicas de termogravimetría, calorimetría diferencial de barrido, análisis de composición y morfología. Con estos ensayos se pretende definir un rango de temperaturas lo más estrecho posible donde las muestras presentan mayor susceptibilidad a un calentamiento espontáneo que puede derivar en auto-combustión, en función de las distintas propiedades estudiadas de las biomasas, para poder servir así de herramienta de evaluación y análisis del riesgo de autocombustión. Como conclusión se muestran umbrales y valores que relacionan las propiedades físicas y químicas de las biomasas estudiadas en su auto-combustión, analizando la influencia de los procesos de preparación de las biomasas sobre las variables que caracterizan su susceptibilidad térmica.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El agua de riego en España se ha reducido del 80 % al 70% tras la rehabilitación de los sistemas tradicionales de riego y el incremento de riegos a presión. La política española ha favorecido la creación de nuevos regadíos con fines sociales, para asentar a la población rural en zonas con disponibilidad de recursos hídricos. Este contexto es aplicable a la Comunidad de Regantes “Rio Adaja” (CCRR), que comenzó a funcionar en 2010 por lo que se la ha elegido para evaluar el uso y productividad del agua y manejo del riego en CCRR modernizadas de la cuenca del Duero. El estudio del manejo del riego se realizó con evaluaciones de campo, el primer año de funcionamiento, en una muestra de sistemas de riego (pivotes centrales, ramales de avance frontal, cobertura total) representativa de los sistemas predominantes en la CCRR. Además, se analizó la carta de riego propuesta por el fabricante de los pivotes centrales, considerando una distribución de caudal continua a lo largo del ramal, y se propuso una nueva carta con emisores de riego que mejoraban la uniformidad de aplicación del agua. El uso del agua en la CCRR se evaluó considerando tanto los indicadores de eficiencia del riego: suministro relativo de riego (anual relative irrigation supply, ARIS), suministro relativo del agua (anual relativewater supply, ARWS), suministro relativo de precipitación (rainfall relative supply, RRS) como los de productividad: productividad del agua (water productivity, WP) productividad del agua de riego (irrigation water productivity, IWP) y productividad de la evapotranspiración (evapotranspiration water productivity, ETWP). Primero, se determinaron: las necesidades hídricas de los cultivos para mantener un contenido de humedad óptimo en su zona radical, el coeficiente dual del cultivo, el agua disponible total (ADP) y agua fácilmente aprovechable (AFA). Después, se estimaron las necesidades hídricas de los cultivos considerando tres años tipo: húmedo, normal y seco correspondientes a la probabilidad de disponibilidad de la precipitación del 20, 50 y 80%, respectivamente. Así mismo, se realizó una encuesta a los regantes de la CCRR para conocer la dosis de riego y rendimiento anual de los cultivos principales durante sus tres años de funcionamiento: 2010-2011, 2011-2012 y 2012-2013.Finalmente, se simuló el efecto del riego y su manejo en la producción de los cultivos y en la productividad del agua. Además, el modelo de simulación AQUACROP (Geerts et al., 2010) se ha utilizado para estudiar la mejora del uso del agua de los cultivos de la CCRR. Dado que este modelo requiere de calibración específica para cada cultivo y cada zona y dado que, de todos los cultivos de la CCRR, sólo el girasol cumplía el requisito, este cultivo fue elegido para estudiar si la estrategia de riego deficitario mejoraría el uso del agua. Los resultados obtenidos indican que el 90% de los sistemas de riego evaluados distribuye el agua con una uniformidad adecuada (CUC≥75%). La simulación de la distribución del agua con las cartas de riego propuestas por el fabricante en pivotes centrales resultó en coeficientes CUC< 75% y sus valores mejoraban al eliminar el aspersor distal. La uniformidad del riego mejoraría si se trabajase con la carta de riego propuesta y que se compone por emisores de riego seleccionados en este estudio. En la mayoría de los cultivos, se aplicó riegos deficitarios (ARIS < 1 en los dos primeros años de funcionamiento de la CCRR y riegos excedentarios (ARIS > 1) el tercer año siendo significativas las diferencias observadas. El manejo del riego fue bueno (0,9 ≤ ARWS ≤1,2) en la mayoría de los cultivos. Así mismo, los indicadores de productividad del agua (WP e IWP (€.m-3)) varió entre cultivos y años estudiados y, destacan los valores observados en: cebolla, patata, zanahoria y cebada. En general, la productividad del agua en los riegos deficitarios fue mayor observándose además, que los índices de productividad mayores correspondieron al año con precipitación mayor aunque, las diferencias entre sus valores medios no fueron significativas en las tres campañas de riego estudiadas. Los resultados apuntan a que la metodología del balance hídrico y las herramientas presentadas en este trabajo (uniformidad de distribución de agua, indicadores de eficiencia del uso de agua y de su productividad) son adecuadas para estudiar el manejo del agua en CCRR. En concreto, la uniformidad en la aplicación del agua de la CCRR mejoraría seleccionando emisores de riego que proporcionen una mayor uniformidad de distribución del agua, lo que conllevaría a cambiar el diámetro de la boquilla de los emisores y/o eliminar el aspersor distal. Así mismo, puede ser de interés adoptar estrategias de riego deficitario para incrementar la productividad en el uso del agua, y las rentas de los regantes, para lo cual se propone utilizar un patrón de cultivos de referencia. Finalmente, el riego deficitario puede ser una estrategia para mejorar la eficiencia y productividad en el uso del agua de la CCRR siempre que lleve asociado un manejo del riego adecuado que resulta, relativamente, más fácil cuando se dispone de sistemas de riego con una uniformidad de aplicación alta. Sin embargo su aplicación no sería aconsejable en los cultivos de remolacha azucarera, regado con sistemas de riego con un coeficiente de uniformidad de Christiansen CUC < 75%, y maíz, regado con sistemas de riego con un coeficiente de uniformidad de Christiansen CUC < 65%. ABSTRACT The irrigation scheme modernization and the increase of sprinkler irrigation area have reduced the irrigation water use from 80 to 70%. The national irrigation policy favored the creation of new irrigation schemes with the purpose to settle the rural population in areas with availability in water resources. Within this context, the irrigation district “Río Adaja” (CCRR) started in 2010 so, it has been chosen as a case study to evaluate the water use and the irrigation management in a modernized CCRR. Several field evaluations were carried out during the first operation year, in a sample of irrigation systems (center pivot, moving lateral and solid set) selected among all the systems in the CCRR. Likewise, the manufacturer irrigation chart for the center pivot systems has been considered and the pressure and discharge distribution along the pivot have been estimated, assuming a continuous flow along the pipe. Then; the sprinkler nozzles were selected order to increase the uniformity on water application. The water use in the CCRR has been assessed by considering the water use efficiency indicators: annual relative irrigation supply (ARIS), annual relative water supply (ARWS), relative rainfall supply (RRS) and also the productivity indicators: water productivity (WP), irrigation water productivity (IWP) and evapotranspiration water productivity (ETWP). On the one hand, it has been determined the crop water requirement (to maintain the optimal soil water content in the rooting zone), the dual crop coefficient, the total available water and the readily available water. The crop water requirement was estimated by considering the typical wet, normal and dry years which correspond to the probability of effective precipitation exceedance of 20, 50 and 80%, respectively. On the other hand, the irrigation depth and crop yield by irrigation campaign have been considered for the main crops in the area. This information was obtained from a farmer’s survey in 2010-2011, 2011-2012 and 2012-2013. For sunflower, the irrigation effect and its management on the crop yield and water productivity have been simulated. Also a deficit irrigation strategy, which improves the water resources, has been determined by means of AQUACROP (FAO). The results showed that 90% of the evaluated irrigation systems have adequate irrigation water application uniformity (CUC ≥ 75%). The CUC values in center pivots, which were calculated using the manufacturer irrigation chart, are below < 75% . However, these values would increase with the change of emitter nozzle to the proposed nozzles selection. The results on water use showed a deficit irrigation management (ARIS < 1), in most of crops during the first two operation years, and an excess in irrigation for the third year (ARIS > 1) although non-significant difference was observed. In most cases, the management of irrigation is adequate (0,9≤ ARWS≤ 1,2) although there are differences among crops. Likewise, the productivity indicators (WP and IWP (€.m-3)) varied among crops and with irrigation events. The highest values corresponded to onion, potato, carrot and barley. The values for deficit irrigation were the highest and the productivity indicators increased the year with the highest effective precipitation. Nevertheless, the differences between the average values of these indicators by irrigation campaign were non-significant. This study highlights that the soil water balance methodology and other tools used in the methodology are adequate to study the use and productivity of water in the irrigation district. In fact, the water use in this CCRR can be improved if the irrigation systems were designed with higher water distribution uniformity what would require the change of sprinkler nozzles and/or eliminate the end gun. Likewise, it is advisable to set up deficit irrigation strategies to increase the water productivity taking into account certain limits on water application uniformities. In this respect, a reference cropping pattern has been proposed and the limits for water uniformity have been calculated for several crops.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Se está produciendo en la geodesia un cambio de paradigma en la concepción de los modelos digitales del terreno, pasando de diseñar el modelo con el menor número de puntos posibles a hacerlo con cientos de miles o millones de puntos. Este cambio ha sido consecuencia de la introducción de nuevas tecnologías como el escáner láser, la interferometría radar y el tratamiento de imágenes. La rápida aceptación de estas nuevas tecnologías se debe principalmente a la gran velocidad en la toma de datos, a la accesibilidad por no precisar de prisma y al alto grado de detalle de los modelos. Los métodos topográficos clásicos se basan en medidas discretas de puntos que considerados en su conjunto forman un modelo; su precisión se deriva de la precisión en la toma singular de estos puntos. La tecnología láser escáner terrestre (TLS) supone una aproximación diferente para la generación del modelo del objeto observado. Las nubes de puntos, producto del escaneo con TLS, pasan a ser tratadas en su conjunto mediante análisis de áreas, de forma que ahora el modelo final no es el resultado de una agregación de puntos sino la de la mejor superficie que se adapta a las nubes de puntos. Al comparar precisiones en la captura de puntos singulares realizados con métodos taquimétricos y equipos TLS la inferioridad de estos últimos es clara; sin embargo es en el tratamiento de las nubes de puntos, con los métodos de análisis basados en áreas, se han obtenido precisiones aceptables y se ha podido considerar plenamente la incorporación de esta tecnología en estudios de deformaciones y movimientos de estructuras. Entre las aplicaciones del TLS destacan las de registro del patrimonio, registro de las fases en la construcción de plantas industriales y estructuras, atestados de accidentes y monitorización de movimientos del terreno y deformaciones de estructuras. En la auscultación de presas, comparado con la monitorización de puntos concretos dentro, en coronación o en el paramento de la presa, disponer de un modelo continuo del paramento aguas abajo de la presa abre la posibilidad de introducir los métodos de análisis de deformaciones de superficies y la creación de modelos de comportamiento que mejoren la comprensión y previsión de sus movimientos. No obstante, la aplicación de la tecnología TLS en la auscultación de presas debe considerarse como un método complementario a los existentes. Mientras que los péndulos y la reciente técnica basada en el sistema de posicionamiento global diferencial (DGPS) dan una información continua de los movimientos de determinados puntos de la presa, el TLS permite ver la evolución estacional y detectar posibles zonas problemáticas en todo el paramento. En este trabajo se analizan las características de la tecnología TLS y los parámetros que intervienen en la precisión final de los escaneos. Se constata la necesidad de utilizar equipos basados en la medida directa del tiempo de vuelo, también llamados pulsados, para distancias entre 100 m y 300 m Se estudia la aplicación del TLS a la modelización de estructuras y paramentos verticales. Se analizan los factores que influyen en la precisión final, como el registro de nubes, tipo de dianas y el efecto conjunto del ángulo y la distancia de escaneo. Finalmente, se hace una comparación de los movimientos dados por los péndulos directos de una presa con los obtenidos del análisis de las nubes de puntos correspondientes a varias campañas de escaneos de la misma presa. Se propone y valida el empleo de gráficos patrón para relacionar las variables precisión o exactitud con los factores distancia y ángulo de escaneo en el diseño de trabajos de campo. Se expone su aplicación en la preparación del trabajo de campo para la realización de una campaña de escaneos dirigida al control de movimientos de una presa y se realizan recomendaciones para la aplicación de la técnica TLS a grandes estructuras. Se ha elaborado el gráfico patrón de un equipo TLS concreto de alcance medio. Para ello se hicieron dos ensayos de campo en condiciones reales de trabajo, realizando escaneos en todo el rango de distancias y ángulos de escaneo del equipo. Se analizan dos métodos para obtener la precisión en la modelización de paramentos y la detección de movimientos de estos: el método del “plano de mejor ajuste” y el método de la “deformación simulada”. Por último, se presentan los resultados de la comparación de los movimientos estacionales de una presa arco-gravedad entre los registrados con los péndulos directos y los obtenidos a partir de los escaneos realizados con un TLS. Los resultados muestran diferencias de milímetros, siendo el mejor de ellos del orden de un milímetro. Se explica la metodología utilizada y se hacen consideraciones respecto a la densidad de puntos de las nubes y al tamaño de las mallas de triángulos. A shift of paradigm in the conception of the survey digital models is taking place in geodesy, moving from designing a model with the fewer possible number of points to models of hundreds of thousand or million points. This change has happened because of the introduction of new technologies like the laser scanner, the interferometry radar and the processing of images. The fast acceptance of these new technologies has been due mainly to the great speed getting the data, to the accessibility as reflectorless technique, and to the high degree of detail of the models. Classic survey methods are based on discreet measures of points that, considered them as a whole, form a model; the precision of the model is then derived from the precision measuring the single points. The terrestrial laser scanner (TLS) technology supposes a different approach to the model generation of the observed object. Point cloud, the result of a TLS scan, must be treated as a whole, by means of area-based analysis; so, the final model is not an aggregation of points but the one resulting from the best surface that fits with the point cloud. Comparing precisions between the one resulting from the capture of singular points made with tachometric measurement methods and with TLS equipment, the inferiority of this last one is clear; but it is in the treatment of the point clouds, using area-based analysis methods, when acceptable precisions have been obtained and it has been possible to consider the incorporation of this technology for monitoring structures deformations. Among TLS applications it have to be emphasized those of registry of the cultural heritage, stages registry during construction of industrial plants and structures, police statement of accidents and monitorization of land movements and structures deformations. Compared with the classical dam monitoring, approach based on the registry of a set of points, the fact having a continuous model of the downstream face allows the possibility of introducing deformation analysis methods and behavior models that would improve the understanding and forecast of dam movements. However, the application of TLS technology for dam monitoring must be considered like a complementary method with the existing ones. Pendulums and recently the differential global positioning system (DGPS) give a continuous information of the movements of certain points of the dam, whereas TLS allows following its seasonal evolution and to detect damaged zones of the dam. A review of the TLS technology characteristics and the factors affecting the final precision of the scanning data is done. It is stated the need of selecting TLS based on the direct time of flight method, also called pulsed, for scanning distances between 100m and 300m. Modelling of structures and vertical walls is studied. Factors that influence in the final precision, like the registry of point clouds, target types, and the combined effect of scanning distance and angle of incidence are analyzed. Finally, a comparison among the movements given by the direct pendulums of a dam and the ones obtained from the analysis of point clouds is done. A new approach to obtain a complete map-type plot of the precisions of TLS equipment based on the direct measurement of time of flight method at midrange distances is presented. Test were developed in field-like conditions, similar to dam monitoring and other civil engineering works. Taking advantage of graphic semiological techniques, a “distance - angle of incidence” map based was designed and evaluated for field-like conditions. A map-type plot was designed combining isolines with sized and grey scale points, proportional to the precision values they represent. Precisions under different field conditions were compared with specifications. For this purpose, point clouds were evaluated under two approaches: the standar "plane-of-best-fit" and the proposed "simulated deformation”, that showed improved performance. These results lead to a discussion and recommendations about optimal TLS operation in civil engineering works. Finally, results of the comparison of seasonal movements of an arc-gravity dam between the registered by the direct pendulums ant the obtained from the TLS scans, are shown. The results show differences of millimeters, being the best around one millimeter. The used methodology is explained and considerations with respect to the point cloud density and to the size of triangular meshes are done.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La edificación residencial existente en España y en Europa se encuentra abocada a una rehabilitación profunda para cumplir los objetivos marcados en la estrategia europea para el año 2050. Estos, para el sector de la edificación, se proponen una reducción del 90% de emisiones de gases de efecto invernadero (GEI) respecto a niveles del año 1990. Este plan a largo plazo establece hitos intermedios de control, con objetivos parciales para el año 2020 y 2030. El objetivo último es aprovechar el potencial de reducción de demanda energética del sector de la edificación, del cual la edificación residencial supone el 85% en España. Dentro de estos requerimientos, de reducción de demanda energética en la edificación, la ventilación en la edificación residencial se convierte en uno de los retos a resolver por su vinculación directa a la salud y el confort de los ocupantes de la misma, y al mismo tiempo su relación proporcional con la demanda energética que presenta el edificio asociada al acondicionamiento térmico. Gran parte de las pérdidas térmicas de la edificación residencial se producen por el aire de renovación y la infiltración de aire a través de la envolvente. La directiva europea de eficiencia energética de la edificación (EPBD), que establece las directrices necesarias para alcanzar los objetivos de este sector en cuanto a emisiones de CO2 y gases de efecto invernadero (GEI), contempla la ventilación con aire limpio como un requisito fundamental a tener en cuenta de cara a las nuevas construcciones y a la rehabilitación energética de los edificios existentes. El síndrome del edificio enfermo, un conjunto de molestias y síntomas asociados a la baja calidad del aire de edificios no residenciales que surgió a raíz de la crisis del petróleo de 1973, tuvo su origen en una ventilación deficiente y una renovación del aire interior insuficiente de estos edificios, producto del intento de ahorro en la factura energética. Teniendo en cuenta que, de media, pasamos un 58% de nuestro tiempo en las viviendas, es fundamental cuidar la calidad del aire interior y no empeorarla aplicando medidas de “eficiencia energética” con efectos no esperados. Para conseguir esto es fundamental conocer en profundidad cómo se produce la ventilación en la edificación en bloque en España en sus aspectos de calidad del aire interior y demanda energética asociada a la ventilación. El objetivo de esta tesis es establecer una metodología de caracterización y de optimización de las necesidades de ventilación para los espacios residenciales existentes en España que aúne el doble objetivo de garantizar la calidad ambiental y reducir la demanda energética de los mismos. La caracterización del parque edificatorio residencial español en cuanto a ventilación es concluyente: La vivienda en España se distribuye principalmente en tres periodos en los que se encuentran más del 80% del total de las viviendas construidas. El periodo anterior a las normas básicas de la edificación (NBE), de 1960 a 1980, el periodo desde 1980 al año 2005, con el mayor número total de viviendas construidas, guiado por la NTE ISV 75, y el periodo correspondiente a la edificación construida a partir del Código Técnico de la Edificación, en 2006, cuyo documento básico de condiciones de salubridad (DB HS3) es la primera norma de obligado cumplimiento en diseño y dimensionamiento de ventilación residencial en España. La selección de un modelo de bloque de viviendas de referencia, un valor medio y representativo, seleccionado de entre estos periodos, pero con cualidades que se extienden más allá de uno de ellos, nos permite realizar un intensivo análisis comparativo de las condiciones de calidad de aire interior y la demanda energética del mismo, aplicando las distintas configuraciones que presenta la ventilación en viviendas dependiendo del escenario o época constructiva (o normativa) en que esta fuera construida. Este análisis se lleva a cabo apoyándose en un doble enfoque: el modelado numérico de simulaciones y el análisis de datos experimentales, para comprobar y afinar los modelos y observar la situación real de las viviendas en estos dos aspectos. Gracias a las conclusiones del análisis previo, se define una estrategia de optimización de la ventilación basada fundamentalmente en dos medidas: 1) La introducción de un sistema de extracción mecánica y recuperación de calor que permita reducir la demanda energética debida a la renovación del aire y a la vez diluir los contaminantes interiores más eficazmente para mejorar, de esta forma, la calidad del ambiente interior. 2) La racionalización del horario de utilización de estos sistemas, no malgastando la energía en periodos de no ocupación, permitiendo una leve ventilación de fondo, debida a la infiltración, que no incida en pérdidas energéticas cuantiosas. A esta optimización, además de aplicar la metodología de análisis previo, en cuanto a demanda energética y calidad del aire, se aplica una valoración económica integradora y comparativa basada en el reglamento delegado EU244/2012 de coste óptimo (Cost Optimal Methodology). Los resultados principales de esta tesis son: • Un diagnóstico de la calidad del aire interior de la edificación residencial en España y su demanda energética asociada, imprescindible para lograr una rehabilitación energética profunda garantizando la calidad del aire interior. • Un indicador de la relación directa entre calidad de aire y demanda energética, para evaluar la adecuación de los sistemas de ventilación, respecto de las nuevas normativas de eficiencia energética y ventilación. • Una estrategia de optimización, que ofrece una alternativa de intervención, y la aplicación de un método de valoración que permite evaluar la amortización comparada de la instalación de los sistemas. ABSTRACT The housing building stock already built in Spain and Europe faces a deep renovation in the present and near future to accomplish with the objectives agreed in the European strategy for 2050. These objectives, for the building sector, are set in a 90% of Green House Gases (GHG) reduction compared to levels in 1990. This long‐term plan has set milestones to control the correct advance of achievement in 2020 and 2030. The main objective is to take advantage of the great potential to reduce energy demand from the building sector, in which housing represents 85% share in Spain. Among this reduction on building energy demand requirements, ventilation of dwellings becomes one of the challenges to solve as it’s directly connected to the indoor air quality (IAQ) and comfort conditions for the users, as well as proportional to the building energy demand on thermal conditioning. A big share of thermal losses in housing is caused by air renovation and infiltration through the envelope leaks. The European Directive on Building energy performance (EPBD), establishes the roots needed to reach the building sector objectives in terms of CO2 and GHG emissions. This directive sets the ventilation and renovation with clean air of the new and existing buildings as a fundamental requirement. The Sick Building Syndrome (SBS), an aggregation of symptoms and annoys associated to low air quality in non residential buildings, appeared as common after the 1973 oil crisis. It is originated in defective ventilation systems and deficient air renovation rates, as a consequence of trying to lower the energy bill. Accounting that we spend 58% of our time in dwellings, it becomes crucial to look after the indoor air quality and focus in not worsening it by applying “energy efficient” measures, with not expected side effects. To do so, it is primary to research in deep how the ventilation takes place in the housing blocks in Spain, in the aspects related to IAQ and ventilation energy demand. This thesis main objective is to establish a characterization and optimization methodology regarding the ventilation needs for existing housing in Spain, considering the twofold objective of guaranteeing the air quality as reducing the energy demand. The characterization of the existing housing building stock in Spain regarding ventilation is conclusive. More of 80% of the housing stock is distributed in 3 main periods: before the implementation of the firsts regulations on building comfort conditions (Normas Básicas de la Edificación), from 1960 to 1980; the period after the first recommendations on ventilation (NTE ISV 75) for housing were set, around 1980 until 2005 and; the period corresponding to the housing built after the existing mandatory regulation in terms of indoor sanity conditions and ventilation (Spanish Building Code, DB HS3) was set, in 2006. Selecting a representative blueprint of a housing block in Spain, which has medium characteristics not just within the 3 periods mention, but which qualities extent beyond the 3 of them, allows the next step, analyzing. This comparative and intense analyzing phase is focused on the air indoor conditions and the related energy demand, applying different configurations to the ventilation systems according to the different constructive or regulation period in which the building is built. This analysis is also twofold: 1) Numerical modeling with computer simulations and 2) experimental data collection from existing housing in real conditions to check and refine the models to be tested. Thanks to the analyzing phase conclusions, an optimization strategy on the ventilation of the housing stock is set, based on two actions to take: 1) To introduce a mechanical exhaust and intake ventilation system with heat recovery that allows reducing energy demand, as improves the capacity of the system to dilute the pollutant load. This way, the environmental quality is improved. 2) To optimize the schedule of the system use, avoids waste of energy in no occupancy periods, relying ventilation during this time in a light infiltration ventilation, intended not to become large and not causing extra energy losses. Apart from applying the previous analyzing methodology to the optimization strategy, regarding energy demand and air quality, a ROI valorization is performed, based on the cost optimal methodology (delegated regulation EU244/2012). The main results from the thesis are: • To obtain a through diagnose regarding air quality and energy demand for the existing housing stock in Spain, unavoidable to reach a energy deep retrofitting scheme with no air quality worsening. • To obtain a marker to relate air quality and energy demand and evaluate adequateness of ventilation systems, for the new regulations to come. • To establish an optimization strategy to improve both air quality and energy demand, applying a compared valorization methodology to obtain the Return On Investment (ROI).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Essa pesquisa objetiva a análise da relação entre religião e política, em perspectiva de gênero considerando a atuação de parlamentares evangélicos/as na 54ª Legislatura (de 2011 a 2014) e a forma de intervenção desses atores no espaço político brasileiro quanto à promulgação de leis e ao desenvolvimento de políticas públicas que contemplem, dentre outras, a regulamentação do aborto, a criminalização da homofobia, a união estável entre pessoas do mesmo sexo e os desafios oriundos dessa posição para o Estado Brasileiro que se posiciona como laico. Ora, se laico remete à ideia de neutralidade estatal em matéria religiosa, legislar legitimado por determinados princípios fundamentados em doutrinas religiosas, pode sugerir a supressão da liberdade e da igualdade, o não reconhecimento da diversidade e da pluralidade e a ausência de limites entre os interesses públicos / coletivos e privados / particulares. Os procedimentos metodológicos para o desenvolvimento dessa pesquisa fundamentam-se na análise e interpretação bibliográfica visando estabelecer a relação entre religião e política, a conceituação, qualificação e tipificação do fenômeno da laicidade; levantamento documental; análise dos discursos de parlamentares evangélicos/as divulgados pela mídia, proferidos no plenário e adotados para embasar projetos de leis; pesquisa qualitativa com a realização de entrevistas e observações das posturas públicas adotadas pelos/as parlamentares integrantes da Frente Parlamentar Evangélica - FPE. Porquanto, os postulados das Ciências da Religião devidamente correlacionados com a interpretação do conjunto de dados obtidos no campo de pesquisa podem identificar o lugar do religioso na sociedade de forma interativa com as interfaces da laicidade visando aprofundar a compreensão sobre a democracia, sobre o lugar da religião nas sociedades contemporâneas e sobre os direitos difusos, coletivos e individuais das pessoas.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En este artículo presentamos COMPENDIUM, una herramienta de generación de resúmenes de textos modular. Esta herramienta se compone de un módulo central con cinco etapas bien diferenciadas: i) análisis lingüístico; ii) detección de redundancia; iii) identificación del tópico; iv) detección de relevancia; y v) generación del resumen, y una serie de módulos adicionales que permiten incrementar las funcionalidades de la herramienta permitiendo la generación de distintos tipos de resúmenes, como por ejemplo orientados a un tema concreto. Realizamos una evaluación exhaustiva en dos dominios distintos (noticias de prensa y documentos sobre lugares turísticos) y analizamos diferentes tipos de resúmenes generados con COMPENDIUM (mono-documento, multi-documento, genéricos y orientados a un tema). Además, comparamos nuestro sistema con otros sistemas de generación de resúmenes actuales. Los resultados que se obtienen demuestran que la herramienta COMPENDIUM es capaz de generar resúmenes competitivos para los distintos tipos de resúmenes propuestos.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

El objetivo de este proyecto se basa en la necesidad de replantearse la filosofía clásica del TLH para adecuarse tanto a las fuentes disponibles actualmente (datos no estructurados con multi-modalidad, multi-lingualidad y diferentes grados de formalidad) como a las necesidades reales de los usuarios finales. Para conseguir este objetivo es necesario integrar tanto la comprensión como la generación del lenguaje humano en un modelo único (modelo LEGOLANG) basado en técnicas de deconstrucción de la lengua, independiente de su aplicación final y de la variante de lenguaje humano elegida para expresar el conocimiento.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Armonía Somers (Uruguay 1917 - 1994) ha sido clasificada dentro de la llamada Generación del 45 de Uruguay, sin embargo, muchos críticos aseguran que su obra difiere de la estética del período en que escribió. Mientras Ángel Rama sugiere que la narrativa de Somers pertenece a la tradición de los raros y malditos, que desciende del extraño linaje del Conde franco-uruguayo y poeta Lautréamont, otros la colocan en el ámbito de la narrativa imaginativa y de lo fantástico. La crítica contemporánea se aproxima a la obra de Somers a partir del concepto de lo extraño o "Unheimlich", abordando las novelas de la autora desde una perspectiva freudiana, lacaniana o heideggeriana. No obstante, ninguna de estas investigaciones ha determinado a qué género u orientación literaria se aviene, ni han indagado en profundidad sobre su contribución a los estudios metaficcionales. ^ En esta tesis propongo que las novelas de Armonía Somers, "La mujer desnuda" (1950), "De miedo en miedo. Los manuscritos del río" (1965), "Un retrato para Dickens" (1969), "Viaje al corazón del día. Elegía por un amor secreto" (1986), y "Solo los elefantes encuentran mandrágora" (1986), transgreden los géneros y tendencias literarias dominantes en su época por medio de una imaginación excesiva y de una trama anti-dramática, asociada primordialmente con la experiencia del terror sublime y la representación de lo inexpresable o irrepresentable, ambas nociones correspondientes a la poética expresionista de vanguardia y al gótico postmoderno. Las novelas analizadas en este trabajo presentan en su estructura una amplia gama de formas ambiguas e inorgánicas, cuya función desestabiliza los aspectos formales del realismo y subvierte los postulados epistemológicos e ideológicos en que se apoyan las culturas afirmativas, las cuales legitiman solo cierto concepto de realidad, desentendiéndose del resto de las experiencia humanas que no encajan en sus esquemas. La desacralización, la disolución moral, la muerte simbólica y la naturaleza fluida de la identidad junto con una marcada autorreflexividad, son algunos de los temas más relevantes de este conjunto de obras, que he categorizado como un ejemplo del expresionismo gótico postmoderno del siglo XX.^

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Armonía Somers (Uruguay 1917 – 1994) ha sido clasificada dentro de la llamada Generación del 45 de Uruguay, sin embargo, muchos críticos aseguran que su obra difiere de la estética del período en que escribió. Mientras Ángel Rama sugiere que la narrativa de Somers pertenece a la tradición de los raros y malditos, que desciende del extraño linaje del Conde franco-uruguayo y poeta Lautréamont, otros la colocan en el ámbito de la narrativa imaginativa y de lo fantástico. La crítica contemporánea se aproxima a la obra de Somers a partir del concepto de lo extraño o “Unheimlich”, abordando las novelas de la autora desde una perspectiva freudiana, lacaniana o heideggeriana. No obstante, ninguna de estas investigaciones ha determinado a qué género u orientación literaria se aviene, ni han indagado en profundidad sobre su contribución a los estudios metaficcionales. En esta tesis propongo que las novelas de Armonía Somers, “La mujer desnuda” (1950), “De miedo en miedo. Los manuscritos del río” (1965), “Un retrato para Dickens” (1969), “Viaje al corazón del día. Elegía por un amor secreto” (1986), y “Solo los elefantes encuentran mandrágora” (1986), transgreden los géneros y tendencias literarias dominantes en su época por medio de una imaginación excesiva y de una trama anti-dramática, asociada primordialmente con la experiencia del terror sublime y la representación de lo inexpresable o irrepresentable, ambas nociones correspondientes a la poética expresionista de vanguardia y al gótico postmoderno. Las novelas analizadas en este trabajo presentan en su estructura una amplia gama de formas ambiguas e inorgánicas, cuya función desestabiliza los aspectos formales del realismo y subvierte los postulados epistemológicos e ideológicos en que se apoyan las culturas afirmativas, las cuales legitiman solo cierto concepto de realidad, desentendiéndose del resto de las experiencia humanas que no encajan en sus esquemas. La desacralización, la disolución moral, la muerte simbólica y la naturaleza fluida de la identidad junto con una marcada autorreflexividad, son algunos de los temas más relevantes de este conjunto de obras, que he categorizado como un ejemplo del expresionismo gótico postmoderno del siglo XX.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Los videojuegos educativos, también conocidos como juegos serios, son una herramienta educacional muy poderosa, cuya utilización no está muy extendida en la educación. Estos Serious Games son costosos de producir, y son muy dependientes de los cambios tecnológicos, tanto en el Software como en el Hardware. Por ejemplo, multitud de Serious Games estaban producidos en Adobe Flash o Java, y hoy en día no pueden ser ejecutados en algunos de los dispositivos más nuevos. Uno de los pioneros de los videojuegos serios "Science Pirates: The Curse of Brownbeard", actualmente no está disponible porque no ha sido adaptado a los nuevos sistemas operativos. Por lo tanto, el ciclo de vida de los juegos serios debe ser simpli- ficado para hacerlos una herramienta de confianza. En el equipo de desarrollo e-UCM se ha creado una herramienta de autoría de juegos serios basada en Java llamada eAdventure, así como multitud de juegos serios en colaboración con multitud de instituciones. Para lidiar con los problemas anteriormente identificados, y simplificar el proceso de creación y mantenimiento de juegos serios, y reutilizando la experiencia previa, se ha creado uAdventure. Este proyecto es un editor e intérprete construido sobre Unity3D, que permite la creación de videojuegos educativos sin requisitos de conocimientos de programación. Como uAdventure está construido sobre Unity3D, permite la exportación de videojuegos, de forma sencilla para múltiples plataformas, y los hace más resistentes a los cambios tecnológicos. A lo largo de esta memoria, se explica el proceso de generación del intérprete de videojuegos, así como la integración con el editor desarrollado por Piotr Marszal, en el que se realizan aportaciones, generando editores. Además, para realizar una labor de innovación, y dar soporte a los juegos cuyos desarrolladores no puedan invertir tiempo en transformar sus videojuegos al nuevo sistema de uAdventure, se ha desarrollado un emulador independiente capaz de importar y ejecutar juegos producidos con eAdventure en cualquier plataforma. Finalmente, para dar soporte y mejorar la parte de evaluación de los alumnos, se ha integrado RAGE en la infraestructura del proyecto, permitiendo el acceso a herramientas de Learning Analitics.