988 resultados para CONTRIBUCIÓN ESPECIAL DE MEJORAS


Relevância:

30.00% 30.00%

Publicador:

Resumo:

El debate acerca del significado y del fin de la Ciencia se ha desarrollado recientemente en el ámbito de la Filosofía de la Ciencia. Uno de los temas más discutidos es la interpretación del representacionalismo en la concepción clásica de la ciencia (p. e., Rorty y Putnam). Las posibilidades de superar el representaciones dependes de su comprensión. En este trabajo se considera un aspecto del representacionalismo modernos: el modo de explicar la ciencia introducido por aristotélicos y tomistas en la Segunda Escolástica (XV – XVI), con especial mención de Cayetano. Este modo está presenta en el origen del representacionalismo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Entendemos, que escribir acerca de la educación y las diferencias humanas no se trata de un acto neutral sino que se ponen de manifiesto diversidad de posiciones. En esta publicación los y las autoras nos ofrecen la oportunidad de encontrarnos con interlocuciones valiosas sobre cuestiones claves. Lo común en estos textos, es que nos brindan interesantes lecturas de carácter disciplinar, interdisciplinar y transdisciplinar, que se revelan en forma implícita o más explícita en los artículos. En este interjuego de “voces", las reflexiones, los argumentos, los supuestos teóricos, el relato de experiencias implicados en los artículos, representan un componente fundamental para revisar, agudizar y liberar la mirada, sobre nuestras prácticas profesionales. Es importante destacar, que cada artículo desde sus aportes sintonizan con ideas que aluden a “mantener viva la pregunta" (Nuria Pérez de Lara 2001). Asimismo, algunos de ellos brindan experiencias, que representan valiosas contribuciones para la formación. Alejandra Otálvaro Orregoi y Colb., destacan la importancia de la configuración del campo de la educación especial en diálogo permanente con otras disciplinas, en tanto lenguaje de interseccionalidad proponen avanzar en las posibilidades de consolidar la construcción de conocimientos desde un trabajo cooperativo, destacando la formación universitaria como espacio privilegiado. Beatriz Janin pone en tensión desde una posición psicoanalítica, los diagnósticos tempranos en la infancia regidos por una visión determinista y predictiva del desarrollo humano, profundiza sobre sus consecuencias estigmatizantes en la adolescencia. Horacio Belgich recupera la transdisciplinariedad como posibilidad de salir de los excesos de la especialización y el recorte disciplinar. A través del relato de situaciones escolares, contribuye a reflexionar sobre la producción de la subjetividad y cómo se ponen en juego miradas acerca de la salud, los derechos y la ética. Gabriela Dueñas desde una lectura interdisciplinar pone en escena prácticas pedagógicas orientadas a la inclusión educativa con efectos paradójicos que encubren la exclusión. Es decir, se trata de cuestiones invisibilizadas que operan “detrás de las escuelas inclusivas". Nora Elichiry en este ensayo se basa en una experiencia sistematizada en una institución pública de educación especial, para el análisis la autora recupera la perspectiva dialógica de la enseñanza, que resulta de particular interés para los educadores pues busca entender el aprendizaje de los alumnos desde sus “respuestas" en relación con las voces de los maestros, textos y pares. Esta orientación da valor a la estrecha interacción docente-alumno, al alto grado de individualización de la tarea, a considerar a los grupos de pares y al debate. Teresa Torrealba e Hilda López toman como referente una experiencia pedagógica, planteada en el marco de la documentación narrativa, en una escuela de recuperación de la modalidad de educación especial. El análisis, se nutre de aportes de las teorías psicogenéticas del desarrollo en el marco de una perspectiva interdisciplinar, donde confluyen la psicología de la educación, la pedagogía y la didáctica. Norma Siena y Claudia Belardinelli comparten una experiencia de formación de educadores de educación especial, ponen de relieve la importancia de brindar a los estudiantes experiencias desde un enfoque interdisciplinario, abren interesantes preguntas como contribución a pensar en la complejidad de la educación especial y los equipos interdisciplinarios que intervienen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La finalidad de esta tesis es establecer un análisis de la metodología de entrenamiento de la resistencia especial en el futbolista. Su objetivo no está vinculado a realizar propuestas prácticas de entrenamiento, sino más bien, se tratará de abordar una posible justificación fisiológico - metabólica, a partir de la relevancia bioenergética de la creatina, en función de la creciente especialización que debe ir adquiriendo el proceso del entrenamiento deportivo a largo plazo, enfocado al logro de altos rendimientos deportivos. A partir del análisis de conceptos terminológicos de referencia, se asienta la idea general de este trabajo, es decir, la estructuración y desarrollo de la resistencia en los deportes de conjunto, como el fútbol. Los pilares de una adecuada planificación son el conocimiento y la aplicación de distintas leyes y principios del entrenamiento deportivo y su relación con los distintos medios y métodos de entrenamiento, como así también, los efectos de adaptación que provocan. Por lo tanto, a partir del análisis de los requerimientos morfológicos - funcionales de las competiciones de elite en fútbol, se pueden elaborar modelos que servirán de base y como objetivo final al cual debe ser orientado el proceso de entrenamiento. Es decir, que un entrenamiento multianual con miras a la formación de futbolistas de elite, debe respetar la especialización creciente de las cargas de entrenamiento, estableciendo una sucesión metodológica adecuada en función de los objetivos de cada etapa. En función de lo expuesto, se realiza un análisis que va desde la resistencia como capacidad física y su metodología de entrenamiento, recorriendo distintos conceptos y manifestaciones, pasando por el análisis de distintas zonas de intensidad o áreas funcionales, y desembocando en la metodología de entrenamiento intermitente de la resistencia o resistencia especial -en los deportes de conjunto-. Y es a partir de todo el análisis precedente que estamos en condiciones de abordar el entrenamiento específico en el fútbol, y más detalladamente la resistencia específica o intermitente que requiere este deporte. El entrenamiento intermitente puede ser considerado como una metodología cuyo énfasis es puesto en modificaciones que se producen a nivel muscular, por sobre factores centrales de rendimiento, presentándose como una variante óptima para el entrenamiento de la resistencia muscular local y específica del futbolista. Básicamente, el entrenamiento intermitente actuaría sobre dos puntos centrales: la mejora del sistema shuttle de la CrP, y sobre la rapidez de entrega de oxígeno al inicio del ejercicio. Aquí aparece la importancia de la suplementación con Cr: que al aumentar las concentraciones del sustrato, y junto con el entrenamiento, que mejora las reacciones enzimáticas implicadas, potenciaría las mejoras buscadas con este tipo de metodología. Queda por determinar cual es el preciso mecanismo de acción por el cual la recuperación de los fosfatos altamente energéticos se produce: si por biogénesis mitocondrial en las fibras reclutadas - generalmente FT -; o mediante el sistema de proteínas transportadoras de Cr - destacando la importancia de las ST - o por algún otro mecanismo no conocido. Su descubrimiento permitiría direccionar más precisamente el entrenamiento deportivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La finalidad de esta tesis es establecer un análisis de la metodología de entrenamiento de la resistencia especial en el futbolista. Su objetivo no está vinculado a realizar propuestas prácticas de entrenamiento, sino más bien, se tratará de abordar una posible justificación fisiológico - metabólica, a partir de la relevancia bioenergética de la creatina, en función de la creciente especialización que debe ir adquiriendo el proceso del entrenamiento deportivo a largo plazo, enfocado al logro de altos rendimientos deportivos. A partir del análisis de conceptos terminológicos de referencia, se asienta la idea general de este trabajo, es decir, la estructuración y desarrollo de la resistencia en los deportes de conjunto, como el fútbol. Los pilares de una adecuada planificación son el conocimiento y la aplicación de distintas leyes y principios del entrenamiento deportivo y su relación con los distintos medios y métodos de entrenamiento, como así también, los efectos de adaptación que provocan. Por lo tanto, a partir del análisis de los requerimientos morfológicos - funcionales de las competiciones de elite en fútbol, se pueden elaborar modelos que servirán de base y como objetivo final al cual debe ser orientado el proceso de entrenamiento. Es decir, que un entrenamiento multianual con miras a la formación de futbolistas de elite, debe respetar la especialización creciente de las cargas de entrenamiento, estableciendo una sucesión metodológica adecuada en función de los objetivos de cada etapa. En función de lo expuesto, se realiza un análisis que va desde la resistencia como capacidad física y su metodología de entrenamiento, recorriendo distintos conceptos y manifestaciones, pasando por el análisis de distintas zonas de intensidad o áreas funcionales, y desembocando en la metodología de entrenamiento intermitente de la resistencia o resistencia especial -en los deportes de conjunto-. Y es a partir de todo el análisis precedente que estamos en condiciones de abordar el entrenamiento específico en el fútbol, y más detalladamente la resistencia específica o intermitente que requiere este deporte. El entrenamiento intermitente puede ser considerado como una metodología cuyo énfasis es puesto en modificaciones que se producen a nivel muscular, por sobre factores centrales de rendimiento, presentándose como una variante óptima para el entrenamiento de la resistencia muscular local y específica del futbolista. Básicamente, el entrenamiento intermitente actuaría sobre dos puntos centrales: la mejora del sistema shuttle de la CrP, y sobre la rapidez de entrega de oxígeno al inicio del ejercicio. Aquí aparece la importancia de la suplementación con Cr: que al aumentar las concentraciones del sustrato, y junto con el entrenamiento, que mejora las reacciones enzimáticas implicadas, potenciaría las mejoras buscadas con este tipo de metodología. Queda por determinar cual es el preciso mecanismo de acción por el cual la recuperación de los fosfatos altamente energéticos se produce: si por biogénesis mitocondrial en las fibras reclutadas - generalmente FT -; o mediante el sistema de proteínas transportadoras de Cr - destacando la importancia de las ST - o por algún otro mecanismo no conocido. Su descubrimiento permitiría direccionar más precisamente el entrenamiento deportivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La finalidad de esta tesis es establecer un análisis de la metodología de entrenamiento de la resistencia especial en el futbolista. Su objetivo no está vinculado a realizar propuestas prácticas de entrenamiento, sino más bien, se tratará de abordar una posible justificación fisiológico - metabólica, a partir de la relevancia bioenergética de la creatina, en función de la creciente especialización que debe ir adquiriendo el proceso del entrenamiento deportivo a largo plazo, enfocado al logro de altos rendimientos deportivos. A partir del análisis de conceptos terminológicos de referencia, se asienta la idea general de este trabajo, es decir, la estructuración y desarrollo de la resistencia en los deportes de conjunto, como el fútbol. Los pilares de una adecuada planificación son el conocimiento y la aplicación de distintas leyes y principios del entrenamiento deportivo y su relación con los distintos medios y métodos de entrenamiento, como así también, los efectos de adaptación que provocan. Por lo tanto, a partir del análisis de los requerimientos morfológicos - funcionales de las competiciones de elite en fútbol, se pueden elaborar modelos que servirán de base y como objetivo final al cual debe ser orientado el proceso de entrenamiento. Es decir, que un entrenamiento multianual con miras a la formación de futbolistas de elite, debe respetar la especialización creciente de las cargas de entrenamiento, estableciendo una sucesión metodológica adecuada en función de los objetivos de cada etapa. En función de lo expuesto, se realiza un análisis que va desde la resistencia como capacidad física y su metodología de entrenamiento, recorriendo distintos conceptos y manifestaciones, pasando por el análisis de distintas zonas de intensidad o áreas funcionales, y desembocando en la metodología de entrenamiento intermitente de la resistencia o resistencia especial -en los deportes de conjunto-. Y es a partir de todo el análisis precedente que estamos en condiciones de abordar el entrenamiento específico en el fútbol, y más detalladamente la resistencia específica o intermitente que requiere este deporte. El entrenamiento intermitente puede ser considerado como una metodología cuyo énfasis es puesto en modificaciones que se producen a nivel muscular, por sobre factores centrales de rendimiento, presentándose como una variante óptima para el entrenamiento de la resistencia muscular local y específica del futbolista. Básicamente, el entrenamiento intermitente actuaría sobre dos puntos centrales: la mejora del sistema shuttle de la CrP, y sobre la rapidez de entrega de oxígeno al inicio del ejercicio. Aquí aparece la importancia de la suplementación con Cr: que al aumentar las concentraciones del sustrato, y junto con el entrenamiento, que mejora las reacciones enzimáticas implicadas, potenciaría las mejoras buscadas con este tipo de metodología. Queda por determinar cual es el preciso mecanismo de acción por el cual la recuperación de los fosfatos altamente energéticos se produce: si por biogénesis mitocondrial en las fibras reclutadas - generalmente FT -; o mediante el sistema de proteínas transportadoras de Cr - destacando la importancia de las ST - o por algún otro mecanismo no conocido. Su descubrimiento permitiría direccionar más precisamente el entrenamiento deportivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Designado por la Escuela Especial de Ingenieros de Montes para desarrollar como proyecto final de carrera, el tema propuesto por el Patrimonio Forestal del Estado, sobre un estudio geobotánico de las Sierras de Segura y Casería, someto a aprobación el presente trabajo que titulo "Contribución al estudio geobotánico de las Sierras de Segura y Cazorla"

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente documento de la RED TEMÁTICA FRUTURA de CYTED recoge las aportaciones de sus miembros al denominado 1er evento, celebrado en Sao Paulo en septiembre de 2009. El título asignado a dicho primer evento o reunión de los participantes, contiene el tema asignado a la Red Temática, es decir Desarrollo de un sistema integral de la mejora de la calidad y seguridad de las frutas durante la confección, el transporte y la comercialización mediante nuevas tecnologías de inspección y monitorización, y se refiere al análisis de temas actuales respecto de la Detección y caracterización de problemas asociados a la calidad: Los problemas y desafíos asociados con el transporte de fruta fresca para cada país participante, con especial atención a los países tropicales. Bajo este título se organizan unas sesiones técnicas, y visitas y presentaciones técnicas en instituciones de Sao Paulo y el EMBRAPA, que son las siguientes: Visita técnica a la Unidad de Instrumentación Agropecuaria en São Carlos/SP , sita a 300 km de São Paulo), y la visita técnica a la Central de Abastecimiento del Estado de São Paulo - CEAGESP/SP. Las contribuciones aquí recogidas se completaron con los puntos de vista expresados por la industria, en un coloquio de empresas, presidido por el Dr. Fernando Flores, con la participación de industriales, que abordaron sus puntos de vista sobre el tema: Los problemas del transporte de frutas y hortalizas, desde el punto de vista de la industria. De ellas se extrajo algunas conclusiones para tener en cuenta en las siguientes reuniones. La principal de ellas, fue que es fundamental a la hora de aconsejar mejoras en el transporte internacional de frutas contar con dicho punto de vista, lo que se tendrá en cuenta en los eventos siguientes de FRUTURA . Asociando países y contribuciones, se identificaron y describieron varios condicionamientos y problemas que aparecen durante el transporte de productos perecederos, en especial de frutas durante su transporte, y que se asocian a pérdidas de calidad: • Evaluar la problemática del transporte de frutas y hortalizas a mercados ubicados a gran distancia supone entender la fisiología del producto y conocer los cambios que puede sufrir durante la conservación y el transporte. Las pérdidas en el transporte de frutas se basan en condiciones ambientales no apropiadas a las que el producto se ve expuesto, tanto en transporte terrestre como en el aéreo, y se relaciona con instalaciones y equipos de frío insuficientes, e insuficientemente controlados. • La reglamentación de cada uno de los países receptores de fruta y hortalizas frescas afecta enormemente a los intercambios comerciales, y es un aspecto que debe ser estudiado especialmente, y a nivel internacional. Existen por ejemplo regulaciones cuarentenarias frente a plagas que requieren tratamientos específicos con altas exigencias tecnológicas. • Teniendo en cuenta que las condiciones óptimas, en especial de temperatura, son diferentes para cada producto. los amplísimos conocimientos y datos existentes a este respecto han de ser analizados y aplicados apropiadamente en los procesos de transporte. • Se establece el alto potencial de nuevas tecnologías como las RFID (Identificación por Radio Frecuencia) y WSN (Redes inalámbricas de Sensores) que hacen posible la supervisión/monitorización y el control de las condiciones del ambiente y del producto en el interior de contenedores de transporte. • El diseño y uso de envases adecuados al producto, el tipo de transporte, paletización, condiciones de frío y las especies frutícolas debe ser analizado cuidadosamente para grandes distancias. Por otro lado, aumenta de demanda de productos fáciles de preparar, siendo las frutas como manzana, pera y durazno mínimamente procesadas en fresco (MPF) una nueva alternativa para los consumidores. Sin embargo estas frutas MPF presentan una serie de daños durante su procesamiento que reducen su vida útil durante su transporte y comercialización, por lo que presentan exigencias especiales en su envasado, comercialización y almacenaje. • Se añade a la variabilidad y falta de calidad de las frutas en el mercado, las deficiencias en las fechas y condiciones de cosecha, de envasado, de tratamiento y de manejo en origen, y a lo largo de la cadena de distribución. • Debe asumirse en varios países y zonas productivas una falta de conocimientos de los productores, transportistas e intermediarios en la distribución. (Es un objetivo iniciar acciones de formación en este sentido, a través de FRUTURA). • Los problemas en las infraestructuras, se centran en varios aspectos de gran relevancia y en todo caso requieren ser optimizados si se persigue calidad y reducción de pérdidas: situación de las fincas, caminos, distancias, carreteras, puertos, aeropuertos, equipos de transporte (camiones, contenedores). Las capacidades y características de los centros de distribución, tales como los visitados CEAGESP de Sao Paulo y MERCAMADRID que representan un factor de enorme influencia en la comercialización de calidad, procesos y productos. Los artículos, al ser contribuciones de los miembros de los distintos países asociados a FRUTURA aportan datos, de la producción frutícola y de su transporte, específicos para algunos de los países participantes en el proyecto: Uruguay, Argentina, Brasil, Costa Rica y España. Los trabajos aquí recogidos se completan con las presentaciones expuestas en la reunión, y que se encuentran accesibles en la página web de FRUTURA: www.frutura.net. Finalmente, otra contribución relevante de estos trabajos es sus listados de bibliografía, los cuales ofrecen una información de gran valor dentro de los objetivos de FRUTURA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La diversidad de propiedades que tienen los actuales sistemas digitales es tan amplia —su complejidad tan creciente— que el uso del ordenador resulta obligado tanto para su diseño como para su simulación y puesta a punto. La organización modular de un sistema simplifica notablemente su diseño y reconfiguración (Alabau, 1973). Hoy no resulta grave en principio, el desaprovechar un cierto número de componentes básicos de un circuito integrado. Sin embargo adquiere especial importancia como tema de futuro el diseño concreto de esos módulos en el contexto de un enfoque nuevo del diseño de complejos sistemas digitales y hasta renace el escrupuloso planteamiento de los antiguos criterios de diseño (Harrison, 1965) dirigidos a minimizar el número de componentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el presente trabajo se desarrolla una metodología para caracterizar fallas activas como fuentes sísmicas independientes en combinación con zonas sismogenéticas tipo área de cara a la estimación probabilista poissoniana de la peligrosidad sísmica. Esta metodología está basada en el reparto de la tasa de momento sísmico registrada en una región entre las fuentes potencialmente activas subyacentes (fallas activas modelizadas de forma independiente y una zonificación sismogenética), haciendo especial hincapié en regiones de sismicidad moderada y fallas de lento movimiento. Se desarrolla una aplicación de la metodología en el sureste de España, incorporando al cálculo 106 fuentes sísmicas independientes: 95 de tipo falla (catalogadas como fallas activas en la base de datos QAFI) y 11 zonas sismogenéticas de tipo área. Del mismo modo, se estima la peligrosidad sísmica con el método clásico zonificado y se comparan los resultados, analizando la influencia de la inclusión de las fallas de forma independiente en la estimación de la peligrosidad. Por último, se desarrolla una aplicación de la metodología propuesta en la estimación de la peligrosidad sísmica considerando un modelo temporal no poissoniano. La aplicación se centra en la falla de Carboneras, mostrando la repercusión que puede tener este cambio de modelo temporal en la estimación final de la peligrosidad. ABSTRACT A new methodology of seismic source characterization to be included in poissonian, probabilistic seismic hazard assessments, is developed in this work. Active faults are considered as independent seismogenic sources in combination with seismogenic area sources. This methodology is based in the distribution of the seismic moment rate recorded in a region between the potentially active underlying seismic sources that it contains (active faults modeled independently and an area-source seismic model), with special emphasis on regions with moderate seismicity and faults with slow deformation rates. An application of the methodology is carried out in the southeastern part of Spain, incorporating 106 independent seismic sources in the computations: 95 of fault type (catalogued as active faults in the Quaternary Active Fault Database, QAFI) and 11 of area-source type. At the same time, the seismic hazard is estimated following the classical area-source method. The results obtained using both methodologies (the classical one and the one proposed in this work9 are compared, analyzing the influence of the inclusion of faults as independent sources in hazard estimates. Finally, an application of the proposed methodology considering a non-poissonian time model is shown. This application is carried out in the Carboneras fault and shows the repercussion that this change of time model has in the final hazard estimates.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El escaso crecimiento de los países del África subsahariana, lleva a la necesidad de plantear un tipo de modelo económico que se adapte a sus especiales características y que en definitiva, conduzca a las sociedades que viven en estos países a un aumento de su calidad de vida, mediante mejoras en todos los campos sociales tales como: la enseñanza, la salud y la nutrición, que puedan ayudar a transformar las perspectivas del crecimiento económico, especialmente en los países objeto de estudio, que se caracterizan por presentar bajos ingresos y escaso desarrollo humano. Se puede concluir, por tanto, diciendo que en definitiva, el fin es el desarrollo humano y que el crecimiento económico es un medio. El propósito del crecimiento económico debe ser enriquecer la vida de la gente. Los adelantos a corto plazo en materia de desarrollo humano son posibles, merced a un mayor crecimiento económico que a su vez no debe desligarse del respeto por el medioambiente y el entorno. Para conseguir estos objetivos, se plantea en la presente tesis un modelo económico, elaborado siguiendo las directrices de la Dinámica de Sistemas, mediante el uso del programa informático VENSIM. El modelo planteado se basa en la producción de energía eléctrica, que sería capaz de abastecer a una población y generar unos excedentes que podrían ser vendidos y las ganancias reinvertidas para impulsar el crecimiento económico de la población a la que abastece. ABSTRACT Low growth in sub-Saharan Africa, leading to the need to establish a type of economic model that suits their special characteristics and ultimately lead to societies that live in these countries to increase human capacity through improvements in all social fields such as education, health and nutrition that can help transform the prospects for economic growth, especially in the countries under study, which are characterized by low income and low human development. It can be concluded, therefore, saying that ultimately, the end is human development and economic growth is a means. The purpose of economic growth should be to enrich the lives of people. The short-term advances in human development are possible, thanks to higher economic growth which in turn should not be separated from respect for the environment and intone. To achieve these objectives, we propose in this thesis an economic model, developed under the guidance of dynamic systems, using the computer program VENSIM. The proposed model is based on the production of electricity, which would be able to supply a population and generate a surplus that could be sold and the proceeds reinvested to boost economic growth in the population it serves.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta Tesis Doctoral aborda el estudio de la resistencia a carga concentrada transversal del alma de vigas metálicas cuando se dispone un nervio inferior de rigidez, que puede materializarse mediante una célula triangular soldada al ala inferior de la viga y sobre el que se aplica directamente la carga. En primer lugar se presenta, de una forma cualitativa, las mejoras resistentes que aporta este diseño frente a la resistencia de una viga doble T (o alma equivalente de una sección cajón) con el ala inferior exenta. Se concluye que esta solución tiene gran interés de cara al diseño de puentes empujados, ya que, con una ejecución muy simple, puede mejorarse de forma sustancial la resistencia a carga concentrada transversal del alma sin recurrir a soluciones mucho más costosas como disponer rigidización longitudinal o, en última instancia, aumentar el espesor de alma por motivos resistentes en una fase constructiva. Se analizan en detalle todas las investigaciones realizadas, a lo largo de más de 80 años, sobre la resistencia de vigas metálicas a carga concentrada transversal, llevadas a cabo únicamente sobre vigas doble T con o sin rigidización longitudinal. Se centra el análisis en investigar los mecanismos resistentes identificados, con objeto de determinar si las distintas formulaciones planteadas contemplan mecanismos de resistencia aplicables al caso de vigas con nervio de rigidez. Se profundiza posteriormente en el análisis de la contribución de un nervio de rigidez a la resistencia a carga concentrada transversal. A través de modelos numéricos de elementos finitos no lineales, se simula la resistencia última de secciones reales de puentes metálicos de tipo doble T a las que se añade un nervio de rigidez y se constata el incremento notable en la resistencia que aporta el nervio. Se identifican los mecanismos resistentes involucrados, mediante un modelo híbrido de elementos finitos con el nervio modelizado con elementos viga, de forma que se obtienen resultados de esfuerzos y movimientos en el propio nervio, como viga en flexión, que resultan de gran claridad para la interpretación estructural del fenómeno. Con ello, se compara la resistencia calculada con la vigente formulación de EAE y EN1993 con la obtenida en vigas doble T y vigas con nervio de rigidez y se concluye que tal formulación es insuficiente para evaluar la resistencia de estas últimas, ya que no reproduce el mecanismo de resistencia conjunta del nervio y rigidizadores, adicional a la simple contribución del alma a la resistencia. A la vista de ello se plantea una formulación alternativa, que contempla de forma explícita los mecanismos resistentes complementarios identificados: flexión longitudinal del nervio, cuando los rigidizadores están más separados que la longitud de alma resistente, y contribución directa de los rigidizadores a la resistencia plástica cuando se aproximan a menor separación que la longitud de alma resistente. Las conclusiones derivadas de todo el análisis anterior se aplican al diseño de un caso real de puente empujado, en el que se suprime toda la rigidización longitudinal y, sobre unas almas exentas de espesor suficiente por resistencia a cortante, se dispone un nervio de rigidez. Los mecanismos resistentes identificados en la Tesis Doctoral, apoyados en la formulación planteada al efecto, permiten al ingeniero alternativas de diseño frente a las posibilidades que le otorga la vigente formulación de resistencia a carga concentrada en vigas doble T. Así, en efecto, una viga doble T que requiera una mayor resistencia a carga concentrada transversal sólo puede reforzarse incrementando el espesor del alma. Por el contrario, con el nervio de rigidez, el ingeniero puede actuar sobre otras variables de diseño: incrementar la rigidez del nervio manteniendo el espesor del alma, para potenciar el mecanismo de flexión longitudinal del nervio; o bien aproximar rigidizadores, más incluso que la longitud de alma resistente, en cuyo caso limitarán ésta a su separación pero contribuirán a incrementar el valor total de la resistencia, superando una insuficiencia de la vigente formulación ya detectada en diversas investigaciones recientes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el campo del análisis multirresolución de señales, bien sean señales unidimensionales o imágenes, la transformada wavelet (u ondícula) es una de las herramientas más atractivas y potentes debido a su capacidad de análisis de las estructuras y singularidades presentes en una señal cuando esta es analizada en distintas escalas. Este trabajo parte de la investigación de cómo la modificación directa de los coeficientes wavelets permite añadir información en forma de marcas de agua a una imagen o también como con las mismas técnicas se pueden realizar esquemas relativamente sencillos de eliminación de ruido en imágenes. Estas aplicaciones son el primer paso para entender qué información capturan los coeficientes wavelet obtenidos mediante las distintas versiones existentes de transformada wavelet Siguiendo la relación entre el módulo de los coeficientes wavelets resultantes en distintas escalas llegamos a poder caracterizar las singularidades presentes en señales o imágenes con aplicaciones prácticas en campos como el análisis de imágenes mamográficas. Esta relación no es más que el primer paso para enlazar la teoría wavelet con el formalismo multifractal, relación definida en primera instancia a partir de la transforma wavelet de módulo máximo. El análisis entre señal, transformada wavelet de módulo máximo e información local de cada coeficiente wavelet da origen a la contribución principal de este trabajo de tesis que consiste en la estimación directa de distintos parámetros multifractales a partir del cálculo de coeficientes derivados de manera local para cada muestra de una señal o pixel de una imagen. La metodología propuesta se aplica en primer lugar a señales de una dimensión de gran complejidad o irregularidad como son las series financieras y específicamente los valores que componen el índice Dow Jones. El resultado permite la cuantificación de la volatilidad o riesgo asociado a cada uno de esas series. En segundo lugar y como principal aplicación de la metodología de análisis multiescala propuesta, el trabajo de investigación se centra en cómo calcular parámetros multifractales en imágenes que reflejan la estructura de suelos agrícolas. Estas imágenes son obtenidas bien aplicando un tinte especial o mediante modernas técnicas de tomografía axial computarizada. En ambos casos, el objetivo es completar la caracterización estadística de la geometría de los flujos preferenciales de agua y otras sustancias, aspectos claves para el correcto tratamiento de suelos agrícolas. Para validar e interpretar cada uno de los algoritmos desarrollados se utilizan señales multifractales sintetizadas y se comparan los resultados obtenidos en las distintas aplicaciones respecto de algoritmos ya consolidados en cada caso.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente Tesis Doctoral evalúa la contribución de una fachada activa, constituida por acristalamientos con circulación de agua, en el rendimiento energético del edificio. Con especial énfasis en la baja afección sobre su imagen, su integración ha de favorecer la calificación del edificio con el futuro estándar de Edificio de consumo de Energía Casi Nulo (EECN). El propósito consiste en cuantificar su aportación a limitar la demanda de climatización, como solución de fachada transparente acorde a las normas de la energía del 2020. En el primer capítulo se introduce el planteamiento del problema. En el segundo capítulo se desarrollan la hipótesis y el objetivo fundamental de la investigación. Para tal fin, en el tercer capítulo, se revisa el estado del arte de la tecnología y de la investigación científica, mediante el análisis de la literatura de referencia. Se comparan patentes, prototipos, sistemas comerciales asimilables, investigaciones en curso en Universidades, y proyectos de investigación y desarrollo, sobre envolventes que incorporan acristalamientos con circulación de agua. El método experimental, expuesto en el cuarto capítulo, acomete el diseño, la fabricación y la monitorización de un prototipo expuesto, durante ciclos de ensayos, a las condiciones climáticas de Madrid. Esta fase ha permitido adquirir información precisa sobre el rendimiento del acristalamiento en cada orientación de incidencia solar, en las distintas estaciones del año. En paralelo, se aborda el desarrollo de modelos teóricos que, mediante su asimilación a soluciones multicapa caracterizadas en las herramientas de simulación EnergyPlus y IDA-ICE (IDA Indoor Climate and Energy), reproducen el efecto experimental. En el quinto capítulo se discuten los resultados experimentales y teóricos, y se analiza la respuesta del acristalamiento asociado a un determinado volumen y temperatura del agua. Se calcula la eficiencia en la captación de la radiación y, mediante la comparativa con un acristalamiento convencional, se determina la reducción de las ganancias solares y las pérdidas de energía. Se comparan el rendimiento del acristalamiento, obtenido experimentalmente, con el ofrecido por paneles solares fototérmicos disponibles en el mercado. Mediante la traslación de los resultados experimentales a casos de células de tamaño habitable, se cuantifica la afección del acristalamiento sobre el consumo en refrigeración y calefacción. Diferenciando cada caso por su composición constructiva y orientación, se extraen conclusiones sobre la reducción del gasto en climatización, en condiciones de bienestar. Posteriormente, se evalúa el ahorro de su incorporación en un recinto existente, de construcción ligera, localizado en la Escuela de Arquitectura de la Universidad Politécnica de Madrid (UPM). Mediante el planteamiento de escenarios de rehabilitación energética, se estima su compatibilidad con un sistema de climatización mediante bomba de calor y extracción geotérmica. Se describe el funcionamiento del sistema, desde la perspectiva de la operación conjunta de los acristalamientos activos e intercambio geotérmico, en nuestro clima. Mediante la parametrización de sus funciones, se estima el beneficio adicional de su integración, a partir de la mejora del rendimiento de la bomba de calor COP (Coefficient of Performance) en calefacción, y de la eficiencia EER (Energy Efficiency Ratio) en refrigeración. En el recinto de la ETSAM, se ha analizado la contribución de la fachada activa en su calificación como Edificio de Energía Casi Nula, y estudiado la rentabilidad económica del sistema. En el sexto capítulo se exponen las conclusiones de la investigación. A la fecha, el sistema supone alta inversión inicial, no obstante, genera elevada eficiencia con bajo impacto arquitectónico, reduciéndose los costes operativos, y el dimensionado de los sistemas de producción, de mayor afección sobre el edificio. Mediante la envolvente activa con suministro geotérmico no se condena la superficie de cubierta, no se ocupa volumen útil por la presencia de equipos emisores, y no se reduce la superficie o altura útil a base de reforzar los aislamientos. Tras su discusión, se considera una alternativa de valor en procesos de diseño y construcción de Edificios de Energía Casi Nulo. Se proponen líneas de futuras investigación cuyo propósito sea el conocimiento de la tecnología de los acristalamientos activos. En el último capítulo se presentan las actividades de difusión de la investigación. Adicionalmente se ha proporcionado una mejora tecnológica a las fachadas activas existentes, que ha derivado en la solicitud de una patente, actualmente en tramitación. ABSTRACT This Thesis evaluates the contribution of an active water flow glazing façade on the energy performance of buildings. Special emphasis is made on the low visual impact on its image, and the active glazing implementation has to encourage the qualification of the building with the future standard of Nearly Zero Energy Building (nZEB). The purpose is to quantify the façade system contribution to limit air conditioning demand, resulting in a transparent façade solution according to the 2020 energy legislation. An initial approach to the problem is presented in first chapter. The second chapter develops the hypothesis and the main objective of the research. To achieve this purpose, the third chapter reviews the state of the art of the technology and scientific research, through the analysis of reference literature. Patents, prototypes, assimilable commercial systems, ongoing research in other universities, and finally research and development projects incorporating active fluid flow glazing are compared. The experimental method, presented in fourth chapter, undertakes the design, manufacture and monitoring of a water flow glazing prototype exposed during test cycles to weather conditions in Madrid. This phase allowed the acquisition of accurate information on the performance of water flow glazing on each orientation of solar incidence, during different seasons. In parallel, the development of theoretical models is addressed which, through the assimilation to multilayer solutions characterized in the simulation tools EnergyPlus and IDA-Indoor Climate and Energy, reproduce the experimental effect. Fifth chapter discusses experimental and theoretical results focused to the analysis of the active glazing behavior, associated with a specific volume and water flow temperature. The efficiency on harvesting incident solar radiation is calculated, and, by comparison with a conventional glazing, the reduction of solar gains and energy losses are determined. The experimental performance of fluid flow glazing against the one offered by photothermal solar panels available on the market are compared. By translating the experimental and theoretical results to cases of full-size cells, the reduction in cooling and heating consumption achieved by active fluid glazing is quantified. The reduction of energy costs to achieve comfort conditions is calculated, differentiating each case by its whole construction composition and orientation. Subsequently, the saving of the implementation of the system on an existing lightweight construction enclosure, located in the School of Architecture at the Polytechnic University of Madrid (UPM), is then calculated. The compatibility between the active fluid flow glazing and a heat pump with geothermal heat supply system is estimated through the approach of different energy renovation scenarios. The overall system operation is described, from the perspective of active glazing and geothermal heat exchange combined operation, in our climate. By parameterization of its functions, the added benefit of its integration it is discussed, particularly from the improvement of the heat pump performance COP (Coefficient of Performance) in heating and efficiency EER (Energy Efficiency Ratio) in cooling. In the case study of the enclosure in the School of Architecture, the contribution of the active glazing façade in qualifying the enclosure as nearly Zero Energy Building has been analyzed, and the feasibility and profitability of the system are studied. The sixth chapter sets the conclusions of the investigation. To date, the system may require high initial investment; however, high efficiency with low architectural impact is generated. Operational costs are highly reduced as well as the size and complexity of the energy production systems, which normally have huge visual impact on buildings. By the active façade with geothermal supply, the deck area it is not condemned. Useful volume is not consumed by the presence of air-conditioning equipment. Useful surface and room height are not reduced by insulation reinforcement. After discussion, water flow glazing is considered a potential value alternative in nZEB design and construction processes. Finally, this chapter proposes future research lines aiming to increase the knowledge of active water flow glazing technology. The last chapter presents research dissemination activities. Additionally, a technological improvement to existing active facades has been developed, which has resulted in a patent application, currently in handling process.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objetivo Establecer una posible relación entre la fuerza (Jamar), el dolor (EVA) y la capacidad funcional referida por el paciente (DASH) determinando en qué grado influyen unas en otras. Estudio observacional transversal analítico. Participantes Muestra de 72 pacientes que presentaban una artrosis trapecio metacarpiana grado 2-3 de Eaton. Los pacientes fueron reclutados cuando acudían a la Unidad de Cirugía de mano. Método Se realizaron mediciones de fuerza de agarre, pinza, valoración del dolor y funcionalidad, y se establecieron las correlaciones entre cada una de ellas. Resultados El modelo más significativo para la función (R2 =0.83) incluye la variable dolor y la fuerza. Pero es la fuerza punta contra punta la que presenta una mayor correlación con el cuestionario DASH (B-estandarizado: –57). Respecto al dolor, influye en todas las mediciones de fuerza realizadas con el dinamómetro, siendo también la fuerza de la pinza punta contra punta la que presenta una mayor correlación. Conclusiones Los hallazgos corroboran que existe una correlación significativa entre la función referida por el paciente y variables que podemos medir en consulta, como la fuerza del puño y la pinza. Pero también esta correlación es significativa entre las variables función y dolor entre sí, pero es la pinza punta contra punta la que presenta una mayor asociación con el cuestionario DASH. Abstract in English Objective To assess the relationship between muscle strength (Jama), and pain (VAS) levels with hand function (DASH) in patients with trapeziometarcapal osteoarthritis. Cross-sectional study. Participants Sample of 72 patients with osteoarthritis stage 2-3 (Eaton) and trapeziometacarpal osteoarthritis. Patients were recruited when they came to the Hand Surgery Unit. Method Grip strength, pinch, pain and hand function were measured, and correlation and regression coefficients between them were obtained. Results For function, the most significant model (R2 = 0.83) included pain and strength. But it is tip to tip pinch force which has a stronger relationship with DASH (Standardized B: –57) questionnaire. Pain also influenced strength measured with the dynamometer but it was tip to tip pinch force that was the most affected. Conclusions Findings confirm that there is a significant correlation between function referred by the patient and variables that can be measured in the clinic such as grip strength and pinch. The correlation between pain intensity and function was also significant, but tip to tip pinch strength had the greatest impact on the function.