255 resultados para Ecuaciones lineales
Resumo:
Como en toda reflexión humana desde el inicio de la modernidad, en la arquitectura se entrelazan las aspiraciones de racionalidad con las contaminaciones, errores e interferencias aleatorias propias de cualquier contexto real. De un lado, los modelos de pensamiento y control describen los hechos y los procedimientos, amplificando las pautas de una explicación coherente de los mismos; de otro, el contacto continuo con entornos reales distorsiona cualquier sistema de leyes internas, aumenta la complejidad de los modelos y abre la vía a la indeterminación y la aleatoriedad tanto en la producción como en el pensamiento. Este escenario de conflicto entre el orden abstracto y la singularidad de cada circunstancia real se reproduce reiteradamente en los problemas arquitectónicos, provocando que los mensajes no sigan pautas lineales. Por el contrario, estos se difunden siguiendo un modelo más parecido al de las ondas, en el que las respuestas obtenidas no son unívocas sino múltiples y deformadas, alteradas por las superposiciones y contaminaciones derivadas de este escenario. En la década de 1920 el movimiento Surrealista había detectado no solo la presencia de este conflicto, sino también su condición estructural en la naturaleza de lo contemporáneo y su permanente dilema entre la proyección hacia un futuro utópico predicado en el progreso tecnológico y el peso de la memoria de un pasado igualmente idealizado por la nostalgia. Un conflicto definitivamente magnificado por la Gran Guerra, capaz de poner en duda la existencia incluso de un futuro. La razón ilustrada y el desarrollo tecnológico se ven profundamente contaminados por la destrucción irracional y la mortal maquinaria bélica. Sus imágenes y experiencia directa constituyen, de hecho, uno de los detonantes de la reacción surrealista ante el ‘statu quo’, exacerbada por hechos circustanciales que se tornan intensamente significativos, como la prematura muerte de Apollinaire como consecuencia precisamente de las heridas recibidas en la guerra. “If reality’, Aragon writes in 1924,’ is the apparent absence of contradiction’, a construct that effaces conflict, then ‘the marvellous is the eruption of contradiction in the real’, an eruption that exposes this construct as such.” El shock traumático de la confrontación y las imágenes de una destrucción ajena a cualquier razón están en el origen de la pregunta que formula Aragon: enfrentados con lo absurdo e inexplicable de los hechos, de la destrucción irracional, debe existir necesariamente otro nivel de conciencia y comprensión bajo la apariencia de estabilidad y normalidad que facilite otra descripción de la realidad, por anormal e irracional que esta sea. Las actividades surrealistas en el París de entreguerras se centraron en el potencial de tales contradicciones, las cuales atravesaban, de medio a medio, las certezas de un futuro predicado en la razón objetiva y el avance tecnológico. Y, a pesar de su imprecisa relación con la arquitectura –no existe, de hecho, una arquitectura que pueda calificarse como ‘surrealista’-, identificaron en la construcción misma de la ciudad y de su experiencia diaria, a un tiempo rutinaria y desestabilizadora, los síntomas de tales conflictos.
Resumo:
Esta tesis está incluida dentro del campo del campo de Multiband Orthogonal Frequency Division Multiplexing Ultra Wideband (MB-OFDM UWB), el cual ha adquirido una gran importancia en las comunicaciones inalámbricas de alta tasa de datos en la última década. UWB surgió con el objetivo de satisfacer la creciente demanda de conexiones inalámbricas en interiores y de uso doméstico, con bajo coste y alta velocidad. La disponibilidad de un ancho de banda grande, el potencial para alta velocidad de transmisión, baja complejidad y bajo consumo de energía, unido al bajo coste de implementación, representa una oportunidad única para que UWB se convierta en una solución ampliamente utilizada en aplicaciones de Wireless Personal Area Network (WPAN). UWB está definido como cualquier transmisión que ocupa un ancho de banda de más de 20% de su frecuencia central, o más de 500 MHz. En 2002, la Comisión Federal de Comunicaciones (FCC) definió que el rango de frecuencias de transmisión de UWB legal es de 3.1 a 10.6 GHz, con una energía de transmisión de -41.3 dBm/Hz. Bajo las directrices de FCC, el uso de la tecnología UWB puede aportar una enorme capacidad en las comunicaciones de corto alcance. Considerando las ecuaciones de capacidad de Shannon, incrementar la capacidad del canal requiere un incremento lineal en el ancho de banda, mientras que un aumento similar de la capacidad de canal requiere un aumento exponencial en la energía de transmisión. En los últimos años, s diferentes desarrollos del UWB han sido extensamente estudiados en diferentes áreas, entre los cuales, el protocolo de comunicaciones inalámbricas MB-OFDM UWB está considerado como la mejor elección y ha sido adoptado como estándar ISO/IEC para los WPANs. Combinando la modulación OFDM y la transmisión de datos utilizando las técnicas de salto de frecuencia, el sistema MB-OFDM UWB es capaz de soportar tasas de datos con que pueden variar de los 55 a los 480 Mbps, alcanzando una distancia máxima de hasta 10 metros. Se esperara que la tecnología MB-OFDM tenga un consumo energético muy bajo copando un are muy reducida en silicio, proporcionando soluciones de bajo coste que satisfagan las demandas del mercado. Para cumplir con todas estas expectativas, el desarrollo y la investigación del MBOFDM UWB deben enfrentarse a varios retos, como son la sincronización de alta sensibilidad, las restricciones de baja complejidad, las estrictas limitaciones energéticas, la escalabilidad y la flexibilidad. Tales retos requieren un procesamiento digital de la señal de última generación, capaz de desarrollar sistemas que puedan aprovechar por completo las ventajas del espectro UWB y proporcionar futuras aplicaciones inalámbricas en interiores. Esta tesis se centra en la completa optimización de un sistema de transceptor de banda base MB-OFDM UWB digital, cuyo objetivo es investigar y diseñar un subsistema de comunicación inalámbrica para la aplicación de las Redes de Sensores Inalámbricas Visuales. La complejidad inherente de los procesadores FFT/IFFT y el sistema de sincronización así como la alta frecuencia de operación para todos los elementos de procesamiento, se convierten en el cuello de la botella para el diseño y la implementación del sistema de UWB digital en base de banda basado en MB-OFDM de baja energía. El objetivo del transceptor propuesto es conseguir baja energía y baja complejidad bajo la premisa de un alto rendimiento. Las optimizaciones están realizadas tanto a nivel algorítmico como a nivel arquitectural para todos los elementos del sistema. Una arquitectura hardware eficiente en consumo se propone en primer lugar para aquellos módulos correspondientes a núcleos de computación. Para el procesado de la Transformada Rápida de Fourier (FFT/IFFT), se propone un algoritmo mixed-radix, basado en una arquitectura con pipeline y se ha desarrollado un módulo de Decodificador de Viterbi (VD) equilibrado en coste-velocidad con el objetivo de reducir el consumo energético e incrementar la velocidad de procesamiento. También se ha implementado un correlador signo-bit simple basado en la sincronización del tiempo de símbolo es presentado. Este correlador es usado para detectar y sincronizar los paquetes de OFDM de forma robusta y precisa. Para el desarrollo de los subsitemas de procesamiento y realizar la integración del sistema completo se han empleado tecnologías de última generación. El dispositivo utilizado para el sistema propuesto es una FPGA Virtex 5 XC5VLX110T del fabricante Xilinx. La validación el propuesta para el sistema transceptor se ha implementado en dicha placa de FPGA. En este trabajo se presenta un algoritmo, y una arquitectura, diseñado con filosofía de co-diseño hardware/software para el desarrollo de sistemas de FPGA complejos. El objetivo principal de la estrategia propuesta es de encontrar una metodología eficiente para el diseño de un sistema de FPGA configurable optimizado con el empleo del mínimo esfuerzo posible en el sistema de procedimiento de verificación, por tanto acelerar el periodo de desarrollo del sistema. La metodología de co-diseño presentada tiene la ventaja de ser fácil de usar, contiene todos los pasos desde la propuesta del algoritmo hasta la verificación del hardware, y puede ser ampliamente extendida para casi todos los tipos de desarrollos de FPGAs. En este trabajo se ha desarrollado sólo el sistema de transceptor digital de banda base por lo que la comprobación de señales transmitidas a través del canal inalámbrico en los entornos reales de comunicación sigue requiriendo componentes RF y un front-end analógico. No obstante, utilizando la metodología de co-simulación hardware/software citada anteriormente, es posible comunicar el sistema de transmisor y el receptor digital utilizando los modelos de canales propuestos por IEEE 802.15.3a, implementados en MATLAB. Por tanto, simplemente ajustando las características de cada modelo de canal, por ejemplo, un incremento del retraso y de la frecuencia central, podemos estimar el comportamiento del sistema propuesto en diferentes escenarios y entornos. Las mayores contribuciones de esta tesis son: • Se ha propuesto un nuevo algoritmo 128-puntos base mixto FFT usando la arquitectura pipeline multi-ruta. Los complejos multiplicadores para cada etapa de procesamiento son diseñados usando la arquitectura modificada shiftadd. Los sistemas word length y twiddle word length son comparados y seleccionados basándose en la señal para cuantización del SQNR y el análisis de energías. • El desempeño del procesador IFFT es analizado bajo diferentes situaciones aritméticas de bloques de punto flotante (BFP) para el control de desbordamiento, por tanto, para encontrar la arquitectura perfecta del algoritmo IFFT basado en el procesador FFT propuesto. • Para el sistema de receptor MB-OFDM UWB se ha empleado una sincronización del tiempo innovadora, de baja complejidad y esquema de compensación, que consiste en funciones de Detector de Paquetes (PD) y Estimación del Offset del tiempo. Simplificando el cross-correlation y maximizar las funciones probables solo a sign-bit, la complejidad computacional se ve reducida significativamente. • Se ha propuesto un sistema de decodificadores Viterbi de 64 estados de decisión-débil usando velocidad base-4 de arquitectura suma-comparaselecciona. El algoritmo Two-pointer Even también es introducido en la unidad de rastreador de origen con el objetivo de conseguir la eficiencia en el hardware. • Se han integrado varias tecnologías de última generación en el completo sistema transceptor basebanda , con el objetivo de implementar un sistema de comunicación UWB altamente optimizado. • Un diseño de flujo mejorado es propuesto para el complejo sistema de implementación, el cual puede ser usado para diseños de Cadena de puertas de campo programable general (FPGA). El diseño mencionado no sólo reduce dramáticamente el tiempo para la verificación funcional, sino también provee un análisis automático como los errores del retraso del output para el sistema de hardware implementado. • Un ambiente de comunicación virtual es establecido para la validación del propuesto sistema de transceptores MB-OFDM. Este método es provisto para facilitar el uso y la conveniencia de analizar el sistema digital de basebanda sin parte frontera analógica bajo diferentes ambientes de comunicación. Esta tesis doctoral está organizada en seis capítulos. En el primer capítulo se encuentra una breve introducción al campo del UWB, tanto relacionado con el proyecto como la motivación del desarrollo del sistema de MB-OFDM. En el capítulo 2, se presenta la información general y los requisitos del protocolo de comunicación inalámbrica MBOFDM UWB. En el capítulo 3 se habla de la arquitectura del sistema de transceptor digital MB-OFDM de banda base . El diseño del algoritmo propuesto y la arquitectura para cada elemento del procesamiento está detallado en este capítulo. Los retos de diseño del sistema que involucra un compromiso de discusión entre la complejidad de diseño, el consumo de energía, el coste de hardware, el desempeño del sistema, y otros aspectos. En el capítulo 4, se ha descrito la co-diseñada metodología de hardware/software. Cada parte del flujo del diseño será detallado con algunos ejemplos que se ha hecho durante el desarrollo del sistema. Aprovechando esta estrategia de diseño, el procedimiento de comunicación virtual es llevado a cabo para probar y analizar la arquitectura del transceptor propuesto. Los resultados experimentales de la co-simulación y el informe sintético de la implementación del sistema FPGA son reflejados en el capítulo 5. Finalmente, en el capítulo 6 se incluye las conclusiones y los futuros proyectos, y también los resultados derivados de este proyecto de doctorado. ABSTRACT In recent years, the Wireless Visual Sensor Network (WVSN) has drawn great interest in wireless communication research area. They enable a wealth of new applications such as building security control, image sensing, and target localization. However, nowadays wireless communication protocols (ZigBee, Wi-Fi, and Bluetooth for example) cannot fully satisfy the demands of high data rate, low power consumption, short range, and high robustness requirements. New communication protocol is highly desired for such kind of applications. The Ultra Wideband (UWB) wireless communication protocol, which has increased in importance for high data rate wireless communication field, are emerging as an important topic for WVSN research. UWB has emerged as a technology that offers great promise to satisfy the growing demand for low-cost, high-speed digital wireless indoor and home networks. The large bandwidth available, the potential for high data rate transmission, and the potential for low complexity and low power consumption, along with low implementation cost, all present a unique opportunity for UWB to become a widely adopted radio solution for future Wireless Personal Area Network (WPAN) applications. UWB is defined as any transmission that occupies a bandwidth of more than 20% of its center frequency, or more than 500 MHz. In 2002, the Federal Communications Commission (FCC) has mandated that UWB radio transmission can legally operate in the range from 3.1 to 10.6 GHz at a transmitter power of -41.3 dBm/Hz. Under the FCC guidelines, the use of UWB technology can provide enormous capacity over short communication ranges. Considering Shannon’s capacity equations, increasing the channel capacity requires linear increasing in bandwidth, whereas similar channel capacity increases would require exponential increases in transmission power. In recent years, several different UWB developments has been widely studied in different area, among which, the MB-OFDM UWB wireless communication protocol is considered to be the leading choice and has recently been adopted in the ISO/IEC standard for WPANs. By combing the OFDM modulation and data transmission using frequency hopping techniques, the MB-OFDM UWB system is able to support various data rates, ranging from 55 to 480 Mbps, over distances up to 10 meters. The MB-OFDM technology is expected to consume very little power and silicon area, as well as provide low-cost solutions that can satisfy consumer market demands. To fulfill these expectations, MB-OFDM UWB research and development have to cope with several challenges, which consist of high-sensitivity synchronization, low- complexity constraints, strict power limitations, scalability, and flexibility. Such challenges require state-of-the-art digital signal processing expertise to develop systems that could fully take advantages of the UWB spectrum and support future indoor wireless applications. This thesis focuses on fully optimization for the MB-OFDM UWB digital baseband transceiver system, aiming at researching and designing a wireless communication subsystem for the Wireless Visual Sensor Networks (WVSNs) application. The inherent high complexity of the FFT/IFFT processor and synchronization system, and high operation frequency for all processing elements, becomes the bottleneck for low power MB-OFDM based UWB digital baseband system hardware design and implementation. The proposed transceiver system targets low power and low complexity under the premise of high performance. Optimizations are made at both algorithm and architecture level for each element of the transceiver system. The low-power hardwareefficient structures are firstly proposed for those core computation modules, i.e., the mixed-radix algorithm based pipelined architecture is proposed for the Fast Fourier Transform (FFT/IFFT) processor, and the cost-speed balanced Viterbi Decoder (VD) module is developed, in the aim of lowering the power consumption and increasing the processing speed. In addition, a low complexity sign-bit correlation based symbol timing synchronization scheme is presented so as to detect and synchronize the OFDM packets robustly and accurately. Moreover, several state-of-the-art technologies are used for developing other processing subsystems and an entire MB-OFDM digital baseband transceiver system is integrated. The target device for the proposed transceiver system is Xilinx Virtex 5 XC5VLX110T FPGA board. In order to validate the proposed transceiver system in the FPGA board, a unified algorithm-architecture-circuit hardware/software co-design environment for complex FPGA system development is presented in this work. The main objective of the proposed strategy is to find an efficient methodology for designing a configurable optimized FPGA system by using as few efforts as possible in system verification procedure, so as to speed up the system development period. The presented co-design methodology has the advantages of easy to use, covering all steps from algorithm proposal to hardware verification, and widely spread for almost all kinds of FPGA developments. Because only the digital baseband transceiver system is developed in this thesis, the validation of transmitting signals through wireless channel in real communication environments still requires the analog front-end and RF components. However, by using the aforementioned hardware/software co-simulation methodology, the transmitter and receiver digital baseband systems get the opportunity to communicate with each other through the channel models, which are proposed from the IEEE 802.15.3a research group, established in MATLAB. Thus, by simply adjust the characteristics of each channel model, e.g. mean excess delay and center frequency, we can estimate the transmission performance of the proposed transceiver system through different communication situations. The main contributions of this thesis are: • A novel mixed radix 128-point FFT algorithm by using multipath pipelined architecture is proposed. The complex multipliers for each processing stage are designed by using modified shift-add architectures. The system wordlength and twiddle word-length are compared and selected based on Signal to Quantization Noise Ratio (SQNR) and power analysis. • IFFT processor performance is analyzed under different Block Floating Point (BFP) arithmetic situations for overflow control, so as to find out the perfect architecture of IFFT algorithm based on the proposed FFT processor. • An innovative low complex timing synchronization and compensation scheme, which consists of Packet Detector (PD) and Timing Offset Estimation (TOE) functions, for MB-OFDM UWB receiver system is employed. By simplifying the cross-correlation and maximum likelihood functions to signbit only, the computational complexity is significantly reduced. • A 64 state soft-decision Viterbi Decoder system by using high speed radix-4 Add-Compare-Select architecture is proposed. Two-pointer Even algorithm is also introduced into the Trace Back unit in the aim of hardware-efficiency. • Several state-of-the-art technologies are integrated into the complete baseband transceiver system, in the aim of implementing a highly-optimized UWB communication system. • An improved design flow is proposed for complex system implementation which can be used for general Field-Programmable Gate Array (FPGA) designs. The design method not only dramatically reduces the time for functional verification, but also provides automatic analysis such as errors and output delays for the implemented hardware systems. • A virtual communication environment is established for validating the proposed MB-OFDM transceiver system. This methodology is proved to be easy for usage and convenient for analyzing the digital baseband system without analog frontend under different communication environments. This PhD thesis is organized in six chapters. In the chapter 1 a brief introduction to the UWB field, as well as the related work, is done, along with the motivation of MBOFDM system development. In the chapter 2, the general information and requirement of MB-OFDM UWB wireless communication protocol is presented. In the chapter 3, the architecture of the MB-OFDM digital baseband transceiver system is presented. The design of the proposed algorithm and architecture for each processing element is detailed in this chapter. Design challenges of such system involve trade-off discussions among design complexity, power consumption, hardware cost, system performance, and some other aspects. All these factors are analyzed and discussed. In the chapter 4, the hardware/software co-design methodology is proposed. Each step of this design flow will be detailed by taking some examples that we met during system development. Then, taking advantages of this design strategy, the Virtual Communication procedure is carried out so as to test and analyze the proposed transceiver architecture. Experimental results from the co-simulation and synthesis report of the implemented FPGA system are given in the chapter 5. The chapter 6 includes conclusions and future work, as well as the results derived from this PhD work.
Resumo:
El diseño y desarrollo de sistemas de suspensión para vehículos se basa cada día más en el diseño por ordenador y en herramientas de análisis por ordenador, las cuales permiten anticipar problemas y resolverlos por adelantado. El comportamiento y las características dinámicas se calculan con precisión, bajo coste, y recursos y tiempos de cálculo reducidos. Sin embargo, existe una componente iterativa en el proceso, que requiere la definición manual de diseños a través de técnicas “prueba y error”. Esta Tesis da un paso hacia el desarrollo de un entorno de simulación eficiente capaz de simular, analizar y evaluar diseños de suspensiones vehiculares, y de mejorarlos hacia la solución optima mediante la modificación de los parámetros de diseño. La modelización mediante sistemas multicuerpo se utiliza aquí para desarrollar un modelo de autocar con 18 grados de libertad, de manera detallada y eficiente. La geometría y demás características de la suspensión se ajustan a las del vehículo real, así como los demás parámetros del modelo. Para simular la dinámica vehicular, se utiliza una formulación multicuerpo moderna y eficiente basada en las ecuaciones de Maggi, a la que se ha incorporado un visor 3D. Así, se consigue simular maniobras vehiculares en tiempos inferiores al tiempo real. Una vez que la dinámica está disponible, los análisis de sensibilidad son cruciales para una optimización robusta y eficiente. Para ello, se presenta una técnica matemática que permite derivar las variables dinámicas dentro de la formulación, de forma algorítmica, general, con la precisión de la maquina, y razonablemente eficiente: la diferenciación automática. Este método propaga las derivadas con respecto a las variables de diseño a través del código informático y con poca intervención del usuario. En contraste con otros enfoques en la bibliografía, generalmente particulares y limitados, se realiza una comparación de librerías, se desarrolla una formulación híbrida directa-automática para el cálculo de sensibilidades, y se presentan varios ejemplos reales. Finalmente, se lleva a cabo la optimización de la respuesta dinámica del vehículo citado. Se analizan cuatro tipos distintos de optimización: identificación de parámetros, optimización de la maniobrabilidad, optimización del confort y optimización multi-objetivo, todos ellos aplicados al diseño del autocar. Además de resultados analíticos y gráficos, se incluyen algunas consideraciones acerca de la eficiencia. En resumen, se mejora el comportamiento dinámico de vehículos por medio de modelos multicuerpo y de técnicas de diferenciación automática y optimización avanzadas, posibilitando un ajuste automático, preciso y eficiente de los parámetros de diseño. ABSTRACT Each day, the design and development of vehicle suspension systems relies more on computer-aided design and computer-aided engineering tools, which allow anticipating the problems and solving them ahead of time. Dynamic behavior and characteristics are thus simulated accurately and inexpensively with moderate computational times and resources. There is, however, an iterative component in the process, which involves the manual definition of designs in a trialand-error manner. This Thesis takes a step towards the development of an efficient simulation framework capable of simulating, analyzing and evaluating vehicle suspension designs, and automatically improving them by varying the design parameters towards the optimal solution. The multibody systems approach is hereby used to model a three-dimensional 18-degrees-of-freedom coach in a comprehensive yet efficient way. The suspension geometry and characteristics resemble the ones from the real vehicle, as do the rest of vehicle parameters. In order to simulate vehicle dynamics, an efficient, state-of-the-art multibody formulation based on Maggi’s equations is employed, and a three-dimensional graphics viewer is developed. As a result, vehicle maneuvers can be simulated faster than real-time. Once the dynamics are ready, a sensitivity analysis is crucial for a robust optimization. To that end, a mathematical technique is introduced, which allows differentiating the dynamic variables within the multibody formulation in a general, algorithmic, accurate to machine precision, and reasonably efficient way: automatic differentiation. This method propagates the derivatives with respect to the design parameters throughout the computer code, with little user interaction. In contrast with other attempts in the literature, mostly not generalpurpose, a benchmarking of libraries is carried out, a hybrid direct-automatic differentiation approach for the computation of sensitivities is developed, and several real-life examples are analyzed. Finally, a design optimization process of the aforementioned vehicle is carried out. Four different types of dynamic response optimization are presented: parameter identification, handling optimization, ride comfort optimization and multi-objective optimization; all of which are applied to the design of the coach example. Together with analytical and visual proof of the results, efficiency considerations are made. In summary, the dynamic behavior of vehicles is improved by using the multibody systems approach, along with advanced differentiation and optimization techniques, enabling an automatic, accurate and efficient tuning of design parameters.
Resumo:
En el presente trabajo se estudia la producción potencial de biomasa procedente de los cultivos de centeno y triticale en las seis comarcas agrarias de la Comunidad de Madrid (CM) y la posibilidad de su aplicación a la producción de bioelectricidad en cada una de ellas. En primer lugar se realiza un estudio bibliográfico de la situación actual de la bioelectricidad. Uno de los principales datos a tener en cuenta es que en el PER 2011- 2020 se estima que el total de potencia eléctrica instalada a partir de biomasa en España en el año 2020 sea de 1.350 MW, unas dos veces y media la existente a finales de 2010. Además, se comenta el estado de la incentivación del uso de biomasa de cultivos energéticos para producción de electricidad, la cual se regula actualmente según el Real Decreto-ley 9/2013, de 12 de Julio, por el que se adoptaron medidas urgentes para garantizar la estabilidad financiera del sistema eléctrico, y se consideran los criterios de sostenibilidad en el uso de biocombustibles sólidos. Se realiza una caracterización de las seis comarcas agrarias que forman la Comunidad Autónoma de Madrid: Área Metropolitana, Campiña, Guadarrama, Lozoya- Somosierra, Sur-Occidental y Vegas, la cual consta de dos partes: una descripción de la climatología y otra de la distribución de la superficie dedicada a barbecho y cultivos herbáceos. Se hace una recopilación bibliográfica de los modelos de simulación más representativos de crecimiento de los cultivos (CERES y Cereal YES), así como de ensayos realizados con los cultivos de centeno y triticale para la producción de biomasa y de estudios efectuados mediante herramientas GIS y técnicas de análisis multicriterio para la ubicación de centrales de bioelectricidad y el estudio de la logística de la biomasa. Se propone un modelo de simulación de la productividad de biomasa de centeno y de triticale para la CM, que resulta de la combinación de un modelo de producción de grano en base a datos climatológicos y a la relación biomasa/grano media de ambos cultivos obtenida en una experiencia previa. Los modelos obtenidos responden a las siguientes ecuaciones (siendo TN = temperatura media normalizada a 9,9 ºC y PN = precipitación acumulada normalizada a 496,7 mm): - Producción biomasa centeno (t m.s./ha) = 2,785 * [1,078 * ln(TN + 2*PN) + 2,3256] - Producción biomasa triticale (t m.s./ha) = 2,595 * [2,4495 * ln(TN + 2*PN) + 2,6103] Posteriormente, aplicando los modelos desarrollados, se cuantifica el potencial de producción de biomasa de centeno y triticale en las distintas comarcas agrarias de la CM en cada uno de los escenarios establecidos, que se consideran según el uso de la superficie de barbecho de secano disponible (25%, 50%, 75% y 100%). Las producciones potenciales de biomasa, que se podrían alcanzar en la CM utilizando el 100% de la superficie de barbecho de secano, en base a los cultivos de centeno y triticale, se estimaron en 169.710,72 - 149.811,59 - 140.217,54 - 101.583,01 - 26.961,88 y 1.886,40 t anuales para las comarcas de Campiña - Vegas, Sur - Occidental - Área Metropolitana - Lozoya-Somosierra y Guadarrama, respectivamente. Se realiza un análisis multicriterio basado en la programación de compromiso para definir las comarcas agrarias con mejores características para la ubicación de centrales de bioelectricidad en base a los criterios de potencial de biomasa, infraestructura eléctrica, red de carreteras, espacios protegidos y superficie de núcleos urbanos. Al efectuar el análisis multicriterio, se obtiene la siguiente ordenación jerárquica en base a los criterios establecidos: Campiña, Sur Occidental, Vegas, Área Metropolitana, Lozoya-Somosierra y Guadarrama. Mediante la utilización de técnicas GIS se estudia la localización más conveniente de una central de bioelectricidad de 2,2 MW en cada una de las comarcas agrarias y según el uso de la superficie de barbecho de secano disponible (25%, 50%, 75% y 100%), siempre que exista potencial suficiente. Para el caso de la biomasa de centeno y de triticale en base seca se considera un PCI de 3500 kcal/kg, por lo que se necesitarán como mínimo 17.298,28 toneladas para satisfacer las necesidades de cada una de las centrales de 2,2 MW. Se analiza el potencial máximo de bioelectricidad en cada una de las comarcas agrarias en base a los cultivos de centeno y triticale como productores de biomasa. Según se considere el 25% o el 100% del barbecho de secano para producción de biomasa, la potencia máxima de bioelectricidad que se podría instalar en cada una de las comarcas agrarias variaría entre 5,4 y 21,58 MW en la comarca Campiña, entre 4,76 y 19,05 MW en la comarca Vegas, entre 4,46 y 17,83 MW en la comarca Sur Occidental, entre 3,23 y 12,92 MW en la comarca Área Metropolitana, entre 0,86 y 3,43 MW en la comarca Lozoya Somosierra y entre 0,06 y 0,24 MW en la comarca Guadarrama. La potencia total que se podría instalar en la CM a partir de la biomasa de centeno y triticale podría variar entre 18,76 y 75,06 MW según que se utilice el 25% o el 100% de las tierras de barbecho de secano para su cultivo. ABSTRACT In this work is studied the potential biomass production from rye and triticale crops in the six Madrid Community (MC) agricultural regions and the possibility of its application to the bioelectricity production in each of them. First is performed a bibliographical study of the current situation of bioelectricity. One of the main elements to be considered is that in the PER 2011-2020 is estimated that the total installed electric power from biomass in Spain in 2020 was 1.350 MW, about two and a half times as at end 2010. Also is discussed the status of enhancing the use of biomass energy crops for electricity production, which is currently regulated according to the Real Decreto-ley 9/2013, of July 12, by which urgent measures were adopted to ensure financial stability of the electrical system, and there are considered the sustainability criteria in the use of solid biofuels. A characterization of the six Madrid Community agricultural regions is carried out: Area Metropolitana, Campiña, Guadarrama, Lozoya-Somosierra, Sur-Occidental and Vegas, which consists of two parts: a description of the climatology and another about the distribution of the area under fallow and arable crops. It makes a bibliographic compilation of the most representative crop growth simulation models (CERES and Cereal YES), as well as trials carried out with rye and triticale crops for biomass production and studies conducted by GIS tools and techniques multicriteria analysis for the location of bioelectricity centrals and the study of the logistics of biomass. Is proposed a biomass productivity simulation model for rye and triticale for MC that results from the combination of grain production model based on climatological data and the average relative biomass/grain of both crops obtained in a prior experience. The models obtained correspond to the following equations (where TN = normalized average temperature and PN = normalized accumulated precipitation): - Production rye biomass (t d.m./ha) = 2.785 * [1.078 * ln (TN + 2*PN) + 2.3256] - Production triticale biomass (t d.m./ha) = 2,595 * [2.4495 * ln (TN + 2*PN) + 2.6103] Subsequently, applying the developed models, the biomass potential of the MC agricultural regions is quantified in each of the scenarios established, which are considered as the use of dry fallow area available (25%, 50%, 75 % and 100%). The potential biomass production that can be achieved within the MC using 100% of the rainfed fallow area based on rye and triticale crops, were estimated at 169.710,72 - 149.811,59 - 140.217,54 - 101.583,01 - 26.961,88 and 1.886,40 t annual for the regions of Campiña, Vegas, Sur Occidental, Area Metropolitana, Lozoya- Somosierra and Guadarrama, respectively. A multicriteria analysis is performed, based on compromise programming to define the agricultural regions with better features for the location of bioelectricity centrals, on the basis of biomass potential, electrical infrastructure, road network, protected areas and urban area criteria. Upon multicriteria analysis, is obtained the following hierarchical order based on criteria: Campiña, Sur Occidental, Vegas, Area Metropolitana, Lozoya-Somosierra and Guadarrama. Likewise, through the use of GIS techniques, the most suitable location for a 2,2 MW bioelectricity plant is studied in each of the agricultural regions and according to the use of dry fallow area available (25%, 50% , 75% and 100%), if there is sufficient potential. In the case of biomass rye and triticale dry basis is considered a PCI of 3500 kcal/kg, so it will take at least 17,298.28 t to satisfy the needs of each plant. Is analyzed the maximum bioelectricity potential on each of the agricultural regions on the basis of the rye and triticale crops as biomass producers. As deemed 25% or 100% dry fallow for biomass, the maximum bioelectricity potential varies between 5,4 and 21,58 MW in the Campiña region, between 4,76 and 19,05 MW in the Vegas region, between 4,46 and 17,83 MW in the Sur Occidental region, between 3,23 and 12,92 MW in the Area Metropolitana region, between 0,86 and 3,43 MW in the Lozoya-Somosierra region and between 0,06 and 0,24 MW in the Guadarrama region. The total power that could be installed in the CM from rye and triticale biomass could vary between 18.76 and 75.06 MW if is used the 25% or 100% of fallow land for rainfed crop.
Resumo:
El presente proyecto tiene el objetivo de facilitar la composición de canciones mediante la creación de las distintas pistas MIDI que la forman. Se implementan dos controladores. El primero, con objeto de transcribir la parte melódica, convierte la voz cantada o tarareada a eventos MIDI. Para ello, y tras el estudio de las distintas técnicas del cálculo del tono (pitch), se implementará una técnica con ciertas variaciones basada en la autocorrelación. También se profundiza en el segmentado de eventos, en particular, una técnica basada en el análisis de la derivada de la envolvente. El segundo, dedicado a la base rítmica de la canción, permite la creación de la percusión mediante el golpe rítmico de objetos que disponga el usuario, que serán asignados a los distintos elementos de percusión elegidos. Los resultados de la grabación de estos impactos serán señales de corta duración, no lineales y no armónicas, dificultando su discriminación. La herramienta elegida para la clasificación de los distintos patrones serán las redes neuronales artificiales (RNA). Se realizara un estudio de la metodología de diseño de redes neuronales especifico para este tipo de señales, evaluando la importancia de las variables de diseño como son el número de capas ocultas y neuronas en cada una de ellas, algoritmo de entrenamiento y funciones de activación. El estudio concluirá con la implementación de dos redes de diferente naturaleza. Una red de Elman, cuyas propiedades de memoria permiten la clasificación de patrones temporales, procesará las cualidades temporales analizando el ataque de su forma de onda. Una red de propagación hacia adelante feed-forward, que necesitará de robustas características espectrales y temporales para su clasificación. Se proponen 26 descriptores como los derivados de los momentos del espectro: centroide, curtosis y simetría, los coeficientes cepstrales de la escala de Mel (MFCCs), y algunos temporales como son la tasa de cruces por cero y el centroide de la envolvente temporal. Las capacidades de discriminación inter e intra clase de estas características serán evaluadas mediante un algoritmo de selección, habiéndose elegido RELIEF, un método basado en el algoritmo de los k vecinos mas próximos (KNN). Ambos controladores tendrán función de trabajar en tiempo real y offline, permitiendo tanto la composición de canciones, como su utilización como un instrumento más junto con mas músicos. ABSTRACT. The aim of this project is to make song composition easier by creating each MIDI track that builds it. Two controllers are implemented. In order to transcribe the melody, the first controler converts singing voice or humming into MIDI files. To do this a technique based on autocorrelation is implemented after having studied different pitch detection methods. Event segmentation has also been dealt with, to be more precise a technique based on the analysis of the signal's envelope and it's derivative have been used. The second one, can be used to make the song's rhythm . It allows the user, to create percussive patterns by hitting different objects of his environment. These recordings results in short duration, non-linear and non-harmonic signals. Which makes the classification process more complicated in the traditional way. The tools to used are the artificial neural networks (ANN). We will study the neural network design to deal with this kind of signals. The goal is to get a design methodology, paying attention to the variables involved, as the number of hidden layers and neurons in each, transfer functions and training algorithm. The study will end implementing two neural networks with different nature. Elman network, which has memory properties, is capable to recognize sequences of data and analyse the impact's waveform, precisely, the attack portion. A feed-forward network, needs strong spectral and temporal features extracted from the hit. Some descriptors are proposed as the derivates from the spectrum moment as centroid, kurtosis and skewness, the Mel-frequency cepstral coefficients, and some temporal features as the zero crossing rate (zcr) and the temporal envelope's centroid. Intra and inter class discrimination abilities of those descriptors will be weighted using the selection algorithm RELIEF, a Knn (K-nearest neighbor) based algorithm. Both MIDI controllers can be used to compose, or play with other musicians as it works on real-time and offline.
Resumo:
En este artículo se presenta la aplicación del Método de los Elementos de Contorno a la determinación del campo de desplazamientos y tensiones de sistemas axisimétricos en régimen elástico. Desarrollando asimismo, un procedimiento para la determinación de los coeficientes de las matrices de influencia que aparecen en el tratamiento numérico del problema. El estudio del estado tensional del sistema axisimétrico es de obvio interés en Ingeniería, pudiendo citarse entre otras las siguientes aplicaciones: estudio de vasijas de todo tipo, y cobrando plena actualidad las vasijas de los reactores nucleares; efecto de grietas y entallas; efecto de la colocación de zunchos de pretensado en depósitos de hormigon armado, etc. El tratamiento numérico de este tipo de problemas se produce como consecuencia de la dificultad de encontrar soluciones cerradas para las ecuaciones de campo que definen el problema, ecuaciones que aunque establecidas hace tiempo, sólo han sido resueltas en casos particulares. La ventaja de la utilización del M.E.C.,frente a los métodos de dominio, se pone de manifiesto en el estudio de este tipo de sistemas ya que la consideración de una malla monodimensional es suficiente para representar la discretización del contorno, produciendose una considerable reducción del tiempo de cómputo.
Resumo:
El comportamiento mecánico del hormigón sigue siendo un problema no resuelto en cuanto a la modelización según las teorias de la mecánica del continuo, a pesar de tratarse de un material ampliamente extendido en su uso. Una de las facetas más caracteristicas de su comportamiento, la fisuración, representa tal vez el aspecto más dificil de tratar en los modelos bi y tridimensionales. En este articulo se describe un modelo propuesto de comportamiento que salva el compromiso entre complejidad y aplicabilidad: La fisuración es considerada como un deterioro del material -daño, tal vez- y su orientación no es registrada en la historia; al igual que ocurre en la Teoria de la Plasticidad, existe un trabajo de fisuración que sirve para medir el deterioro existente. El modelo es además compatible con la plasticidad como tal, tipica del comportamiento a compresión del hormigón. Dicho modelo, junto con una versión modificada del método de longitud de arco para resolución de problemas no lineales, es implementado y utilizado para la resolución de algunos ejemplos.
Resumo:
El Método de las Ecuaciones Integrales es una potente alternativa a los Métodos de Dominio tales como el Método de los Elementos Finitos. La idea ensencial es la combinación de la clásica relación de la reciprocidad con la filosofía de la discretización del F.E.M. La aplicación a algunos problemas reales ha demostrado que en ciertos casos el B.I.E.M. es preferiole al F.E.M. y ello es especialmente así cuando los problemas a tratar son tridimensionales y con geometría complicada. En esta ocasión se analizan comparativamente algunos aspectos matemáticos del procedimiento = Boundary integral equation method (B.I.E.M.)is a powerful alternative to the domain methods, as the well know Finite Element Method (F .E.M.) The esential idea, are the combination of the classical reciprocity re!ations with the discretization phylosophy of F.E.M. The reduction in dimension of the domain to be discretized, the easy treatment of infinite domains and the high accuracy of the results are the main adventages of B.I.E.M. Between the drawacks the nonsymetry and non sparseness of the matrices to be treated are worth remembering. Application to several real problems has shown that in certain cases B.I.E.M. is better than F.E.M. and this is specially true when tridimensional problems of complicated geometries have to be treated. Active research is in progress of its extensión to non linear and time dependent problems.
Resumo:
En este trabajo se expone la formulación del B.I.E.M. (en problemas de potencial)con elementos mixtos, que representan una interpolación lineal en la función de campo y constante en su derivada. El objetivo primordial de dicha formulación, es el soslayar los problemas que se presentan con los planteamientos anteriores, cuando existen puntos singulares. Los ejemplos que se incluyen, resueltos mediante un programa desarrollado en un miniordenador, confirman que el método propuesto consigue mejores resultados, sin ninguna complicación adicional sobre la formulación general, y con un ahorro significativo en cuanto al número de incógnitas y ecuaciones que se han de resolver = In this paper the mixed B.I.E.M. for bidimensional potential problems is presented. The interpolation of the field variable is done by piecewise constant one. The main idea is to swep out the solution the parasitic disturbances introduced near singular points by a finite value although an important byproduct is the possibility of conexion with domain methods, as F.E.M., in which the same kind of interpolation is worked. Results are very good, as shown by the exemples, and also interesting is the reduction in computer time comparatively to the classical B.l.E.M approach.
Resumo:
El objeto del presente artículo es el estudio de singularidades en problemas de Potencial mediante el uso del Método de las Ecuaciones Integrales sobre el contorno del dominio en estudio. Frente a soluciones basadas en la mejora de la discretización, análisis asintótico o introducción de funciones de forma que representen mejor la evolución de la función, una nueva hipótesis es presentada: el término responsable de la singularidad es incluido en la integral sobre el contorno de la función auxiliar. Los resultados obtenidos mejoran los de soluciones anteriores simplificando también el tiempo de cálculo = The subject of this paper is the modelling of singularities in potential problems, using the Boundary Integral Equation Method. As a logical alternative to classical methods (discretization refinement, asymptotic analysis, high order interpolatory functions) a new hypothesis is presented: the singularity responsible term is included in the interpolatory shape function. As shown by several exemples results are splendid and computer time radically shortened.
Resumo:
Se presenta en esta comunicación el tratamiento de problemas de potencial en sistemas bidimensionales, haciendo uso de la discretización de su contorno o frontera mediante elementos parabólicos tanto en geometría como en las variables de campo. Se estudian las ventajas frente al uso de elementos isoparamétricos lineales dentro de la teoría del potencial. Se presenta también un estudio sobre las zonas singulares a que dan lugar los elementos parabólicos degenerados = This paper presents a B.I.E.M. for potential theory, using in the discretization a completely isoparametric parabolic formulation; that is, the field variable, its first derivative and the boundary domain are interpolated using second orden piecewise polinomic. Several results are presented and comparison is mode with other simpler formulations. Also treated is the posibility of modelling singular behavior by moving the midside mode of selected elements.
Resumo:
El propósito de esta tesis es la implementación de métodos eficientes de adaptación de mallas basados en ecuaciones adjuntas en el marco de discretizaciones de volúmenes finitos para mallas no estructuradas. La metodología basada en ecuaciones adjuntas optimiza la malla refinándola adecuadamente con el objetivo de mejorar la precisión de cálculo de un funcional de salida dado. El funcional suele ser una magnitud escalar de interés ingenieril obtenida por post-proceso de la solución, como por ejemplo, la resistencia o la sustentación aerodinámica. Usualmente, el método de adaptación adjunta está basado en una estimación a posteriori del error del funcional de salida mediante un promediado del residuo numérico con las variables adjuntas, “Dual Weighted Residual method” (DWR). Estas variables se obtienen de la solución del problema adjunto para el funcional seleccionado. El procedimiento habitual para introducir este método en códigos basados en discretizaciones de volúmenes finitos involucra la utilización de una malla auxiliar embebida obtenida por refinamiento uniforme de la malla inicial. El uso de esta malla implica un aumento significativo de los recursos computacionales (por ejemplo, en casos 3D el aumento de memoria requerida respecto a la que necesita el problema fluido inicial puede llegar a ser de un orden de magnitud). En esta tesis se propone un método alternativo basado en reformular la estimación del error del funcional en una malla auxiliar más basta y utilizar una técnica de estimación del error de truncación, denominada _ -estimation, para estimar los residuos que intervienen en el método DWR. Utilizando esta estimación del error se diseña un algoritmo de adaptación de mallas que conserva los ingredientes básicos de la adaptación adjunta estándar pero con un coste computacional asociado sensiblemente menor. La metodología de adaptación adjunta estándar y la propuesta en la tesis han sido introducidas en un código de volúmenes finitos utilizado habitualmente en la industria aeronáutica Europea. Se ha investigado la influencia de distintos parámetros numéricos que intervienen en el algoritmo. Finalmente, el método propuesto se compara con otras metodologías de adaptación de mallas y su eficiencia computacional se demuestra en una serie de casos representativos de interés aeronáutico. ABSTRACT The purpose of this thesis is the implementation of efficient grid adaptation methods based on the adjoint equations within the framework of finite volume methods (FVM) for unstructured grid solvers. The adjoint-based methodology aims at adapting grids to improve the accuracy of a functional output of interest, as for example, the aerodynamic drag or lift. The adjoint methodology is based on the a posteriori functional error estimation using the adjoint/dual-weighted residual method (DWR). In this method the error in a functional output can be directly related to local residual errors of the primal solution through the adjoint variables. These variables are obtained by solving the corresponding adjoint problem for the chosen functional. The common approach to introduce the DWR method within the FVM framework involves the use of an auxiliary embedded grid. The storage of this mesh demands high computational resources, i.e. over one order of magnitude increase in memory relative to the initial problem for 3D cases. In this thesis, an alternative methodology for adapting the grid is proposed. Specifically, the DWR approach for error estimation is re-formulated on a coarser mesh level using the _ -estimation method to approximate the truncation error. Then, an output-based adaptive algorithm is designed in such way that the basic ingredients of the standard adjoint method are retained but the computational cost is significantly reduced. The standard and the new proposed adjoint-based adaptive methodologies have been incorporated into a flow solver commonly used in the EU aeronautical industry. The influence of different numerical settings has been investigated. The proposed method has been compared against different grid adaptation approaches and the computational efficiency of the new method has been demonstrated on some representative aeronautical test cases.
Resumo:
Entre las aportaciones más significativas que ha hecho la Electrónica Cuántica en los últimos años, dentro del campo de los dispositivos con uso potencial en diferentes terrenos, se encuentra, sin duda, el de la Biestabilidad Optica. Desde su planteamiento teórico por Szóke, en 1969, hasta la primera aparición de un elemento que ofreciese en el laboratorio propiedades experimentales concordantes con dicha teoría, pasaron exactamente seis años. Desde 1969, Szóke no ha vuelto a publicar ningún artículo en este campo, pero los investigadores que desde 1975 comenzaron a trabajar en él, lo han hecho hasta nuestros días con una ley prácticamente exponencial. Si se analizan con un cierto detalle, por otra parte, las tendencias previas de los diferentes grupos puede verse que, la mayor parte de ellos, provienen de ramas de la Electrónica Cuántica dedicados al estudio de fenómenos no-lineales de interacción radiación-materia. Pero hay también un número muy apreciable de otros grupos que habían estado trabajando en problemas de transiciones de fase en sistemas fuera del equilibrio, en física de materiales, tanto semiconductores como no semiconductores en física matemática y recientemente, en comunicaciones ópticas y en tecnología de ordenadores.
Condicionantes de la adherencia y anclaje en el refuerzo de muros de fábrica con elementos de fibras
Resumo:
Es cada vez más frecuente la rehabilitación de patrimonio construido, tanto de obras deterioradas como para la adecuación de obras existentes a nuevos usos o solicitaciones. Se ha considerado el estudio del refuerzo de obras de fábrica ya que constituyen un importante número dentro del patrimonio tanto de edificación como de obra civil (sistemas de muros de carga o en estructuras principales porticadas de acero u hormigón empleándose las fábricas como cerramiento o distribución con elementos autoportantes). A la hora de reparar o reforzar una estructura es importante realizar un análisis de las deficiencias, caracterización mecánica del elemento y solicitaciones presentes o posibles; en el apartado 1.3 del presente trabajo se refieren acciones de rehabilitación cuando lo que se precisa no es refuerzo estructural, así como las técnicas tradicionales más habituales para refuerzo de fábricas que suelen clasificarse según se trate de refuerzos exteriores o interiores. En los últimos años se ha adoptado el sistema de refuerzo de FRP, tecnología con origen en los refuerzos de hormigón tanto de elementos a flexión como de soportes. Estos refuerzos pueden ser de láminas adheridas a la fábrica soporte (SM), o de barras incluidas en rozas lineales (NSM). La elección de un sistema u otro depende de la necesidad de refuerzo y tipo de solicitación predominante, del acceso para colocación y de la exigencia de impacto visual. Una de las mayores limitaciones de los sistemas de refuerzo por FRP es que no suele movilizarse la resistencia del material de refuerzo, produciéndose previamente fallo en la interfase con el soporte con el consecuente despegue o deslaminación; dichos fallos pueden tener un origen local y propagarse a partir de una discontinuidad, por lo que es preciso un tratamiento cuidadoso de la superficie soporte, o bien como consecuencia de una insuficiente longitud de anclaje para la transferencia de los esfuerzos en la interfase. Se considera imprescindible una caracterización mecánica del elemento a reforzar. Es por ello que el trabajo presenta en el capítulo 2 métodos de cálculo de la fábrica soporte de distintas normativas y también una formulación alternativa que tiene en cuenta la fábrica histórica ya que su caracterización suele ser más complicada por la heterogeneidad y falta de clasificación de sus materiales, especialmente de los morteros. Una vez conocidos los parámetros resistentes de la fábrica soporte es posible diseñar el refuerzo; hasta la fecha existe escasa normativa de refuerzos de FRP para muros de fábrica, consistente en un protocolo propuesto por la ACI 440 7R-10 que carece de mejoras por tipo de anclaje y aporta valores muy conservadores de la eficacia del refuerzo. Como se ha indicado, la problemática principal de los refuerzos de FRP en muros es el modo de fallo que impide un aprovechamiento óptimo de las propiedades del material. Recientemente se están realizando estudios con distintos métodos de anclaje para estos refuerzos, con lo que se incremente la capacidad última y se mantenga el soporte ligado al refuerzo tras la rotura. Junto con sistemas de anclajes por prolongación del refuerzo (tanto para láminas como para barras) se han ensayado anclajes con llaves de cortante, barras embebidas, o anclajes mecánicos de acero o incluso de FRP. Este texto resume, en el capítulo 4, algunas de las campañas experimentales llevadas a cabo entre los años 2000 y 2013 con distintos anclajes. Se observan los parámetros fundamentales para medir la eficacia del anclajes como son: el modo de fallo, el incremento de resistencia, y los desplazamientos que permite observar la ductilidad del refuerzo; estos datos se analizan en función de la variación de: tipo de refuerzo incluyéndose el tipo de fibra y sistema de colocación, y tipo de anclaje. Existen también parámetros de diseño de los propios anclajes. En el caso de barras embebidas se resumen en diámetro y material de la barra, acabado superficial, dimensiones y forma de la roza, tipo de adhesivo. En el caso de anclajes de FRP tipo pasador la caracterización incluye: tipo de fibra, sistema de fabricación del anclajes y diámetro del mismo, radio de expansión del abanico, espaciamiento longitudinal de anclajes, número de filas de anclajes, número de láminas del refuerzo, longitud adherida tras el anclaje; es compleja la sistematización de resultados de los autores de las campañas expuestas ya que algunos de estos parámetros varían impidiendo la comparación. El capítulo 5 presenta los ensayos empleados para estas campañas de anclajes, distinguiéndose entre ensayos de modo I, tipo tracción directa o arrancamiento, que servirían para sistemas NSM o para cuantificar la resistencia individual de anclajes tipo pasador; ensayos de modo II, tipo corte simple, que se asemeja más a las condiciones de trabajo de los refuerzos. El presente texto se realiza con objeto de abrir una posible investigación sobre los anclajes tipo pasador, considerándose que junto con los sistemas de barra embebida son los que permiten una mayor versatilidad de diseño para los refuerzos de FRP y siendo su eficacia aún difícil de aislar por el número de parámetros de diseño. Rehabilitation of built heritage is becoming increasingly frequent, including repair of damaged works and conditioning for a new use or higher loads. In this work it has been considered the study of masonry wall reinforcement, as most buildings and civil works have load bearing walls or at least infilled masonry walls in concrete and steel structures. Before repairing or reinforcing an structure, it is important to analyse its deficiencies, its mechanical properties and both existing and potential loads; chapter 1, section 4 includes the most common rehabilitation methods when structural reinforcement is not needed, as well as traditional reinforcement techniques (internal and external reinforcement) In the last years the FRP reinforcement system has been adopted for masonry walls. FRP materials for reinforcement were initially used for concrete pillars and beams. FRP reinforcement includes two main techniques: surface mounted laminates (SM) and near surface mounted bars (NSM); one of them may be more accurate according to the need for reinforcement and main load, accessibility for installation and aesthetic requirements. One of the main constraints of FRP systems is not reaching maximum load for material due to premature debonding failure, which can be caused by surface irregularities so surface preparation is necessary. But debonding (or delamination for SM techniques) can also be a consequence of insufficient anchorage length or stress concentration. In order to provide an accurate mechanical characterisation of walls, chapter 2 summarises the calculation methods included in guidelines as well as alternative formulations for old masonry walls as historic wall properties are more complicated to obtain due to heterogeneity and data gaps (specially for mortars). The next step is designing reinforcement system; to date there are scarce regulations for walls reinforcement with FRP: ACI 440 7R-10 includes a protocol without considering the potential benefits provided by anchorage devices and with conservative values for reinforcement efficiency. As noted above, the main problem of FRP masonry walls reinforcement is failure mode. Recently, some authors have performed studies with different anchorage systems, finding that these systems are able to delay or prevent debonding . Studies include the following anchorage systems: Overlap, embedded bars, shear keys, shear restraint and fiber anchors. Chapter 4 briefly describes several experimental works between years 2000 and 2013, concerning different anchorage systems. The main parameters that measure the anchorage efficiency are: failure mode, failure load increase, displacements (in order to evaluate the ductility of the system); all these data points strongly depend on: reinforcement system, FRP fibers, anchorage system, and also on the specific anchorage parameters. Specific anchorage parameters are a function of the anchorage system used. The embedded bar system have design variables which can be identified as: bar diameter and material, surface finish, groove dimensions, and adhesive. In FRP anchorages (spikes) a complete design characterisation should include: type of fiber, manufacturing process, diameter, fan orientation, anchor splay width, anchor longitudinal spacing and number or rows, number or FRP sheet plies, bonded length beyond anchorage devices,...the parameters considered differ from some authors to others, so the comparison of results is quite complicated. Chapter 5 includes the most common tests used in experimental investigations on bond-behaviour and anchorage characterisation: direct shear tests (with variations single-shear and double-shear), pullout tests and bending tests. Each of them may be used according to the data needed. The purpose of this text is to promote further investigation of anchor spikes, accepting that both FRP anchors and embedded bars are the most versatile anchorage systems of FRP reinforcement and considering that to date its efficiency cannot be evaluated as there are too many design uncertainties.
Resumo:
El libro comienza haciendo referencia a la seguridad en los sistemas estructurales, centrándose específicamente en las incertidumbres, la fiabilidad estructural y los métodos de comprobación de la seguridad. Posteriormente se tratan algunos métodos de nivel II utilizados para valorar la probabilidad de fallo; así, se hace referencia al índice de fiabilidad en general y, en particular al de Cornell y al de Hasofer y Lind; respecto a los métodos de cálculo del índice de fiabilidad, se estudia el método de los momentos de segundo orden y el método de las estimaciones puntuales. Del método de los momentos de segundo orden se analizan las funciones de fallo no lineales, esquema iterativo, las variables correlacionadas y la transformación de variables aleatorias. El capítulo destinado a las normas basadas en los conceptos de fiabilidad estructural analiza la relación entre los métodos de comprobación de la seguridad nivel I y nivel ll, la obtención de los coeficientes de ponderación mediante el método de los momentos de segundo orden y los formatos de cálculo en valores medios y valores característicos para terminar con la aplicación de a un caso práctico. Finalmente, se realiza un estudio de niveles de seguridad en túneles, para lo que se realiza una descripción física del problema, se plantea un modelo matemático de cálculo y se realiza un análisis de la seguridad así como la caracterización de variables.