151 resultados para No Convencionales


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con 1.300 millones de personas en el mundo sin acceso a la electricidad (la mayoría en entornos rurales de países empobrecidos), la energía solar fotovoltaica constituye una solución viable técnica y económicamente para electrificar las zonas más remotas del planeta donde las redes eléctricas convencionales no llegan. Casi todos los países en el mundo han desarrollado algún tipo de programa de electrificación fotovoltaica rural durante los últimos 40 años, principalmente los países más pobres, donde a través de diferentes modelos de financiación, se han instalado millones de sistemas solares domiciliarios (pequeños sistemas fotovoltaicos para uso doméstico). Durante este largo período, se han ido superando muchas barreras, como la mejora de la calidad de los sistemas fotovoltaicos, la reducción de costes, la optimización del diseño y del dimensionado de los sistemas, la disponibilidad financiera para implantar programas de electrificación rural, etc. Gracias a esto, la electrificación rural descentralizada ha experimentado recientemente un salto de escala caracterizada por la implantación de grandes programas con miles de sistemas solares domiciliarios e integrando largos períodos de mantenimiento. Muchos de estos grandes programas se están llevando a cabo con limitado éxito, ya que generalmente parten de supuestos e hipótesis poco contrastadas con la realidad, comprometiendo así un retorno económico que permita el desarrollo de esta actividad a largo plazo. En este escenario surge un nuevo reto: el de cómo garantizar la sostenibilidad de los grandes programas de electrificación rural fotovoltaica. Se argumenta que la principal causa de esta falta de rentabilidad es el imprevisto alto coste de la fase de operación y mantenimiento. Cuestiones clave tales como la estructura de costes de operación y mantenimiento o la fiabilidad de los componentes del sistema fotovoltaico no están bien caracterizados hoy en día. Esta situación limita la capacidad de diseñar estructuras de mantenimiento capaces de asegurar la sostenibilidad y la rentabilidad del servicio de operación y mantenimiento en estos programas. Esta tesis doctoral tiene como objetivo responder a estas cuestiones. Se ha realizado varios estudios sobre la base de un gran programa de electrificación rural fotovoltaica real llevado a cabo en Marruecos con más de 13.000 sistemas solares domiciliarios instalados. Sobre la base de este programa se ha hecho una evaluación en profundidad de la fiabilidad de los sistemas solares a partir de los datos de mantenimiento recogidos durante 5 años con más de 80.000 inputs. Los resultados han permitido establecer las funciones de fiabilidad de los equipos tal y como se comportan en condiciones reales de operación, las tasas de fallos y los tiempos medios hasta el fallo para los principales componentes del sistema, siendo este el primer caso de divulgación de resultados de este tipo en el campo de la electrificación rural fotovoltaica. Los dos principales componentes del sistema solar domiciliario, la batería y el módulo fotovoltaico, han sido analizados en campo a través de una muestra de 41 sistemas trabajando en condiciones reales pertenecientes al programa solar marroquí. Por un lado se ha estudiado la degradación de la capacidad de las baterías y por otro la degradación de potencia de los módulos fotovoltaicos. En el caso de las baterías, los resultados nos han permitido caracterizar la curva de degradación en capacidad llegando a obtener una propuesta de nueva definición del umbral de vida útil de las baterías en electrificación rural. También sobre la base del programa solar de Marruecos se ha llevado a cabo un estudio de caracterización de los costes reales de operación y mantenimiento a partir de la base de datos de contabilidad del programa registrados durante 5 años. Los resultados del estudio han permitido definir cuáles son costes que más incidencia tienen en el coste global. Se han obtenido los costes unitarios por sistema instalado y se han calculado los montantes de las cuotas de mantenimiento de los usuarios para garantizar la rentabilidad de la operación y mantenimiento. Finalmente, se propone un modelo de optimización matemática para diseñar estructuras de mantenimiento basado en los resultados de los estudios anteriores. La herramienta, elaborada mediante programación lineal entera mixta, se ha aplicado al programa marroquí con el fin de validar el modelo propuesto. ABSTRACT With 1,300 million people worldwide deprived of access to electricity (mostly in rural environments), photovoltaic solar energy has proven to be a cost‐effective solution and the only hope for electrifying the most remote inhabitants of the planet, where conventional electric grids do not reach because they are unaffordable. Almost all countries in the world have had some kind of rural photovoltaic electrification programme during the past 40 years, mainly the poorer countries, where through different organizational models, millions of solar home systems (small photovoltaic systems for domestic use) have been installed. During this long period, many barriers have been overcome, such as quality enhancement, cost reduction, the optimization of designing and sizing, financial availability, etc. Thanks to this, decentralized rural electrification has recently experienced a change of scale characterized by new programmes with thousands of solar home systems and long maintenance periods. Many of these large programmes are being developed with limited success, as they have generally been based on assumptions that do not correspond to reality, compromising the economic return that allows long term activity. In this scenario a new challenge emerges, which approaches the sustainability of large programmes. It is argued that the main cause of unprofitability is the unexpected high cost of the operation and maintenance of the solar systems. In fact, the lack of a paradigm in decentralized rural services has led to many private companies to carry out decentralized electrification programmes blindly. Issues such as the operation and maintenance cost structure or the reliability of the solar home system components have still not been characterized. This situation does not allow optimized maintenance structure to be designed to assure the sustainability and profitability of the operation and maintenance service. This PhD thesis aims to respond to these needs. Several studies have been carried out based on a real and large photovoltaic rural electrification programme carried out in Morocco with more than 13,000 solar home systems. An in‐depth reliability assessment has been made from a 5‐year maintenance database with more than 80,000 maintenance inputs. The results have allowed us to establish the real reliability functions, the failure rate and the main time to failure of the main components of the system, reporting these findings for the first time in the field of rural electrification. Both in‐field experiments on the capacity degradation of batteries and power degradation of photovoltaic modules have been carried out. During the experiments both samples of batteries and modules were operating under real conditions integrated into the solar home systems of the Moroccan programme. In the case of the batteries, the results have enabled us to obtain a proposal of definition of death of batteries in rural electrification. A cost assessment of the Moroccan experience based on a 5‐year accounting database has been carried out to characterize the cost structure of the programme. The results have allowed the major costs of the photovoltaic electrification to be defined. The overall cost ratio per installed system has been calculated together with the necessary fees that users would have to pay to make the operation and maintenance affordable. Finally, a mathematical optimization model has been proposed to design maintenance structures based on the previous study results. The tool has been applied to the Moroccan programme with the aim of validating the model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El refuerzo de forjados existentes de madera incrementando su capacidad resistente y/o su rigidez es una intervención estructural muy extendida. El refuerzo mediante recrecidos de hormigón unidos solidariamente a las viguetas de madera mediante conexiones metálicas presenta las siguientes ventajas: Incremento de la resistencia y rigidez del forjado inicial; el forjado se transforma en un diafragma rígido frente a las acciones horizontales y, cuando es posible ejecutar el refuerzo sin necesidad de apuntalar, puede mantenerse el uso de la zona inferior al forjado que se está reforzando. El principal inconveniente de la técnica radica en la carga añadida por el peso del hormigón. El empleo de hormigones ligeros estructurales (HLE) constituye una alternativa atractiva frente a los hormigones convencionales (HC), al aunar todas las ventajas de la técnica y disminuir considerablemente los inconvenientes debido al menor peso del hormigón ligero. Se han comparado los resultados obtenidos en la evaluación de forjados de madera de distintas luces, secciones y sobrecargas, reforzados con recrecidos de HC y de HLE. En concreto se han estudiado 3 luces (4.0, 4.5 y 5.0m) y 2 sobrecargas de uso (2kN/m2 y 3kN/m2). En todos los casos la sección de la madera se ha obtenido con criterios antiguos de dimensionamiento, utilizando las luces y acciones de los forjados a evaluar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En hidrodinámica, el fenómeno de Sloshing se puede definir como el movimiento de la superficie libre de un fluido dentro de un contenedor sometido a fuerzas y perturbaciones externas. El fluido en cuestión experimenta violentos movimientos con importantes deformaciones de su superficie libre. La dinámica del fluido puede llegar a generar cargas hidrodinámicas considerables las cuales pueden afectar la integridad estructural y/o comprometer la estabilidad del vehículo que transporta dicho contenedor. El fenómeno de Sloshing ha sido extensivamente investigado matemática, numérica y experimentalmente, siendo el enfoque experimental el más usado debido a la complejidad del problema, para el cual los modelos matemáticos y de simulación son aun incapaces de predecir con suficiente rapidez y precisión las cargas debidas a dicho fenómeno. El flujo generado por el Sloshing usualmente se caracteriza por la presencia de un fluido multifase (gas-liquido) y turbulencia. Reducir al máximo posible la complejidad del fenómeno de Sloshing sin perder la esencia del problema es el principal reto de esta tesis doctoral, donde un trabajo experimental enfocado en casos canónicos de Sloshing es presentado y documentado con el objetivo de aumentar la comprensión de dicho fenómeno y por tanto intentar proveer información valiosa para validaciones de códigos numéricos. El fenómeno de Sloshing juega un papel importante en la industria del transporte marítimo de gas licuado (LNG). El mercado de LNG en los últimos años ha reportado un crecimiento hasta tres veces mayor al de los mercados de petróleo y gas convencionales. Ingenieros en laboratorios de investigación e ingenieros adscritos a la industria del LNG trabajan continuamente buscando soluciones económicas y seguras para contener, transferir y transportar grandes volúmenes de LNG. Los buques transportadores de LNG (LNGC) han pasado de ser unos pocos buques con capacidad de 75000 m3 hace unos treinta años, a una amplia flota con una capacidad de 140000 m3 actualmente. En creciente número, hoy día se construyen buques con capacidades que oscilan entre 175000 m3 y 250000 m3. Recientemente un nuevo concepto de buque LNG ha salido al mercado y se le conoce como FLNG. Un FLNG es un buque de gran valor añadido que solventa los problemas de extracción, licuefacción y almacenamiento del LNG, ya que cuenta con equipos de extracción y licuefacción a bordo, eliminando por tanto las tareas de transvase de las estaciones de licuefacción en tierra hacia los buques LNGC. EL LNG por tanto puede ser transferido directamente desde el FLNG hacia los buques LNGC en mar abierto. Niveles de llenado intermedios en combinación con oleaje durante las operaciones de trasvase inducen movimientos en los buques que generan por tanto el fenómeno de Sloshing dentro de los tanques de los FLNG y los LNGC. El trabajo de esta tesis doctoral lidia con algunos de los problemas del Sloshing desde un punto de vista experimental y estadístico, para ello una serie de tareas, descritas a continuación, se han llevado a cabo : 1. Un dispositivo experimental de Sloshing ha sido configurado. Dicho dispositivo ha permitido ensayar secciones rectangulares de tanques LNGC a escala con movimientos angulares de un grado de libertad. El dispositivo experimental ha sido instrumentado para realizar mediciones de movimiento, presiones, vibraciones y temperatura, así como la grabación de imágenes y videos. 2. Los impactos de olas generadas dentro de una sección rectangular de un LNGC sujeto a movimientos regulares forzados han sido estudiados mediante la caracterización del fenómeno desde un punto de vista estadístico enfocado en la repetitividad y la ergodicidad del problema. 3. El estudio de los impactos provocados por movimientos regulares ha sido extendido a un escenario más realístico mediante el uso de movimientos irregulares forzados. 4. El acoplamiento del Sloshing generado por el fluido en movimiento dentro del tanque LNGC y la disipación de la energía mecánica de un sistema no forzado de un grado de libertad (movimiento angular) sujeto a una excitación externa ha sido investigado. 5. En la última sección de esta tesis doctoral, la interacción entre el Sloshing generado dentro en una sección rectangular de un tanque LNGC sujeto a una excitación regular y un cuerpo elástico solidario al tanque ha sido estudiado. Dicho estudio corresponde a un problema de interacción fluido-estructura. Abstract In hydrodynamics, we refer to sloshing as the motion of liquids in containers subjected to external forces with large free-surface deformations. The liquid motion dynamics can generate loads which may affect the structural integrity of the container and the stability of the vehicle that carries such container. The prediction of these dynamic loads is a major challenge for engineers around the world working on the design of both the container and the vehicle. The sloshing phenomenon has been extensively investigated mathematically, numerically and experimentally. The latter has been the most fruitful so far, due to the complexity of the problem, for which the numerical and mathematical models are still incapable of accurately predicting the sloshing loads. The sloshing flows are usually characterised by the presence of multiphase interaction and turbulence. Reducing as much as possible the complexity of the sloshing problem without losing its essence is the main challenge of this phd thesis, where experimental work on selected canonical cases are presented and documented in order to better understand the phenomenon and to serve, in some cases, as an useful information for numerical validations. Liquid sloshing plays a key roll in the liquified natural gas (LNG) maritime transportation. The LNG market growth is more than three times the rated growth of the oil and traditional gas markets. Engineers working in research laboratories and companies are continuously looking for efficient and safe ways for containing, transferring and transporting the liquified gas. LNG carrying vessels (LNGC) have evolved from a few 75000 m3 vessels thirty years ago to a huge fleet of ships with a capacity of 140000 m3 nowadays and increasing number of 175000 m3 and 250000 m3 units. The concept of FLNG (Floating Liquified Natural Gas) has appeared recently. A FLNG unit is a high value-added vessel which can solve the problems of production, treatment, liquefaction and storage of the LNG because the vessel is equipped with a extraction and liquefaction facility. The LNG is transferred from the FLNG to the LNGC in open sea. The combination of partial fillings and wave induced motions may generate sloshing flows inside both the LNGC and the FLNG tanks. This work has dealt with sloshing problems from a experimental and statistical point of view. A series of tasks have been carried out: 1. A sloshing rig has been set up. It allows for testing tanks with one degree of freedom angular motion. The rig has been instrumented to measure motions, pressure and conduct video and image recording. 2. Regular motion impacts inside a rectangular section LNGC tank model have been studied, with forced motion tests, in order to characterise the phenomenon from a statistical point of view by assessing the repeatability and practical ergodicity of the problem. 3. The regular motion analysis has been extended to an irregular motion framework in order to reproduce more realistic scenarios. 4. The coupled motion of a single degree of freedom angular motion system excited by an external moment and affected by the fluid moment and the mechanical energy dissipation induced by sloshing inside the tank has been investigated. 5. The last task of the thesis has been to conduct an experimental investigation focused on the strong interaction between a sloshing flow in a rectangular section of a LNGC tank subjected to regular excitation and an elastic body clamped to the tank. It is thus a fluid structure interaction problem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

¿Suministrarán las fuentes de energía renovables toda la energía que el mundo necesita algún día? Algunos argumentan que sí, mientras que otros dicen que no. Sin embargo, en algunas regiones del mundo, la producción de electricidad a través de fuentes de energía renovables ya está en una etapa prometedora de desarrollo en la que su costo de generación de electricidad compite con fuentes de electricidad convencionales, como por ejemplo la paridad de red. Este logro ha sido respaldado por el aumento de la eficiencia de la tecnología, la reducción de los costos de producción y, sobre todo, los años de intervenciones políticas de apoyo financiero. La difusión de los sistemas solares fotovoltaicos (PV) en Alemania es un ejemplo relevante. Alemania no sólo es el país líder en términos de capacidad instalada de sistemas fotovoltaicos (PV) en todo el mundo, sino también uno de los países pioneros donde la paridad de red se ha logrado recientemente. No obstante, podría haber una nube en el horizonte. La tasa de difusión ha comenzado a declinar en muchas regiones. Además, las empresas solares locales – que se sabe son importantes impulsores de la difusión – han comenzado a enfrentar dificultades para manejar sus negocios. Estos acontecimientos plantean algunas preguntas importantes: ¿Es ésta una disminución temporal en la difusión? ¿Los adoptantes continuarán instalando sistemas fotovoltaicos? ¿Qué pasa con los modelos de negocio de las empresas solares locales? Con base en el caso de los sistemas fotovoltaicos en Alemania a través de un análisis multinivel y dos revisiones literarias complementarias, esta tesis doctoral extiende el debate proporcionando riqueza múltiple de datos empíricos en un conocimiento de contexto limitado. El primer análisis se basa en la perspectiva del adoptante, que explora el nivel "micro" y el proceso social que subyace a la adopción de los sistemas fotovoltaicos. El segundo análisis es una perspectiva a nivel de empresa, que explora los modelos de negocio de las empresas y sus roles impulsores en la difusión de los sistemas fotovoltaicos. El tercero análisis es una perspectiva regional, la cual explora el nivel "meso", el proceso social que subyace a la adopción de sistemas fotovoltaicos y sus técnicas de modelado. Los resultados incluyen implicaciones tanto para académicos como políticos, no sólo sobre las innovaciones en energía renovable relativas a la paridad de red, sino también, de manera inductiva, sobre las innovaciones ambientales impulsadas por las políticas que logren la competitividad de costes. ABSTRACT Will renewable energy sources supply all of the world energy needs one day? Some argue yes, while others say no. However, in some regions of the world, the electricity production through renewable energy sources is already at a promising stage of development at which their electricity generation costs compete with conventional electricity sources’, i.e., grid parity. This achievement has been underpinned by the increase of technology efficiency, reduction of production costs and, above all, years of policy interventions of providing financial support. The diffusion of solar photovoltaic (PV) systems in Germany is an important frontrunner case in point. Germany is not only the top country in terms of installed PV systems’ capacity worldwide but also one of the pioneer countries where the grid parity has recently been achieved. However, there might be a cloud on the horizon. The diffusion rate has started to decline in many regions. In addition, local solar firms – which are known to be important drivers of diffusion – have started to face difficulties to run their businesses. These developments raise some important questions: Is this a temporary decline on diffusion? Will adopters continue to install PV systems? What about the business models of the local solar firms? Based on the case of PV systems in Germany through a multi-level analysis and two complementary literature reviews, this PhD Dissertation extends the debate by providing multiple wealth of empirical details in a context-limited knowledge. The first analysis is based on the adopter perspective, which explores the “micro” level and the social process underlying the adoption of PV systems. The second one is a firm-level perspective, which explores the business models of firms and their driving roles in diffusion of PV systems. The third one is a regional perspective, which explores the “meso” level, i.e., the social process underlying the adoption of PV systems and its modeling techniques. The results include implications for both scholars and policymakers, not only about renewable energy innovations at grid parity, but also in an inductive manner, about policy-driven environmental innovations that achieve the cost competiveness.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El crecimiento urbano descontrolado en países en vía de desarrollo conlleva grandes desafíos para la gestión del territorio frente al riesgo de inundaciones, aún más en relación al cambio climático. El propósito de la presente comunicación es describir los aspectos más generales y relevantes del proyecto Adaptación Urbana Verde. El software MODCEL© fue adoptado para realizar simulaciones de distintas alternativas de solución y así determinar zonas inundadas y viviendas afectadas de Riohacha, elementos clave para comparar alternativas. El software MODCEL soporta una familia de modelos matemáticos hidráulicos cuasi 3D, discretizando el territorio en ?céldas?. Las salidas de simulación se han reportado en un sistema de información geográfica para la visualización y análisis. A través de un proceso participativo, apoyado en una evaluación de tipo multicriterio, se ha llegado a generar un plan urbano integrado contra las inundaciones con medidas no convencionales estructurales, destacándose el uso de elementos peculiares del territorio como lo son los humedales (naturales y e intervenidos) de Riohacha. Los resultados conseguidos pretenden ser un referente local para la adaptación al cambio climático con visibilidad nacional en la reducción del riesgo de desastres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No hay duda de que el ferrocarril es uno de los símbolos del avance tecnológico y social de la humanidad, y su imparable avance desde el primer tercio del Siglo XIX así lo atestigua. No obstante, a lo largo de gran parte de su historia se ha mostrado algo renuente a abrazar ciertas tecnologías, lo que le ha causado ser tachado de conservador. Sin embargo, en los últimos años, coincidiendo con el auge masivo de los trenes de alta velocidad, los metropolitanos y los tranvías, muchas tecnologías han ido penetrando en el mundo del ferrocarril. La que hoy nos ocupa es una de las que mayor valor añadido le ha proporcionado (y que probablemente le proporcionará también en el futuro): las comunicaciones móviles. Actualmente el uso de este tipo de tecnologías en el entorno ferroviario puede calificarse como de inicial o, por seguir la nomenclatura de las comunicaciones móviles públicas, de segunda generación. El GSM-R en las líneas de alta velocidad es un caso (aunque de éxito al fin y al cabo) que define perfectamente el estado del arte de las comunicaciones móviles en este entorno, ya que proporcionó un gran valor añadido a costa de un gran esfuerzo de estandarización; ha supuesto un importante salto adelante en el campo de la fiabilidad de este tipo de sistemas, aunque tiene unas grandes limitaciones de capacidad y graves problemas de escalabilidad. Todo hace pensar que en 2025 el sustituto de GSM-R deberá estar en el mercado. En cualquier caso, se debería abandonar la filosofía de crear productos de nicho, que son extraordinariamente caros, y abrazar las filosofías abiertas de las redes de comunicaciones públicas. Aquí es donde LTE, la última gran estrella de esta familia de estándares, puede aportar mucho valor. La idea subyacente detrás de esta Tesis es que LTE puede ser una tecnología que aporte gran valor a las necesidades actuales (y probablemente futuras) del sector del ferrocarril, no solamente en las líneas y trenes de alta velocidad, sino en las denominadas líneas convencionales y en los metros y tranvías. Dado que es un campo aún a día de hoy que dista bastante de estar completamente estudiado, se ha explorado la problemática de la propagación electromagnética en los diferentes entornos ferroviarios, como pueden ser los túneles de metro y la influencia de las estructuras de los trenes. En este sentido, se ha medido de forma bastante exhaustiva en ambos entornos. Por otro lado, dado que los sistemas multiantena son uno de los pilares fundamentales de los modernos sistemas de comunicaciones, se ha verificado de forma experimental la viabilidad de esta tecnología a la hora de implementar un sistema de comunicaciones trentierra en un túnel. Asimismo, de resultas de estas medidas, se ha comprobado la existencia de ciertos fenómenos físicos que pueden suponer una merma en la eficiencia de este tipo de sistemas. En tercer lugar, y dado que uno de los grandes desafíos de las líneas de alta velocidad está provocado por la gran celeridad a la que se desplazan los trenes, se ha explorado la influencia de este parámetro en la eficiencia global de una red completa de comunicaciones móviles. Por supuesto, se ha hecho especial hincapié en los aspectos relacionados con la gestión de la movilidad (traspasos o handovers Por último, a modo de cierre de la Tesis, se ha tratado de identificar los futuros servicios de comunicaciones que aportarán más valor a las explotaciones ferroviarias, así como los requisitos que supondrán para las redes de comunicaciones móviles. Para los casos antes enunciados (propagación, sistemas multiantena, movilidad y desafíos futuros) se proporcionan las contribuciones ya publicadas en revistas y congresos internacionales, así como las que están enviadas para su revisión. ABSTRACT There is almost no doubt that railways are one of the symbols of the technological and social progress of humanity. However, most of the time railways have been somewhat reluctant to embrace new technologies, gaining some reputation of being conservative. But in the last years, together with the massive boom of high speed lines, subways and trams all over the world, some technologies have broken through these conservative resistance. The one which concerns us now is one of the most value-added (both today and in the future): mobile communications. The state-of-the-art of these technologies in the railway field could be called as incipient, or (following the mobile communications’ notation) ‘second generation’. GSM-R, the best example of mobile communications in railways is a success story that shows perfectly the state-of-the-art of this field: it provided a noticeable mark-up but also required a great standardization effort; it also meant a huge step forward in the reliability of these systems but it also needs to face some scalability issues and some capacity problems. It looks more than feasible that in 2025 the alternative to GSM-R should be already available. Anyway, the vision here should be forgetting about expensive niche products, and embracing open standards like public mobile communications do. The main idea behind this Thesis is that LTE could be a technology that provides a lot of added value to the necessities of the railways of today and the future. And not only to highspeed lines, but also to the so-called conventional rail, subways and tramways. Due to the fact that even today, propagation in tunnels and influence of car bodies is far from being full-studied, we measured in a very exhaustive way the EM propagation in these two environments. Also, multiantenna systems are one of the basic foundations of the modern communications systems, so we experimentally verified the feasibility of using such a system in a train-towayside in a tunnel. Moreover, from the measurements carried out we proved the existence of some physical phenomena that could imply a decrease in the performance of these multiantenna systems. In third place, we have explored the influence of high-speed in the whole performance of the network, from the mobility management point-of-view. This high-speed movement is one of the most relevant challenges for the mobile communications networks. The emphasis was placed on the mobility aspects of the radio resource management. Finally, the Thesis closure is an identification of the future communication services that could provide a bigger addition of value to railways, and also the requirements that imply to mobile communications networks. For all the previous for scenarios depicted before (propagation, multiantenna systems, mobility and challenges) we provide some contributions already published (or submitted for revision or still in progress) on publications and international conferences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis considera dos tipos de aplicaciones del diseño óptico: óptica formadora de imagen por un lado, y óptica anidólica (nonimaging) o no formadora de imagen, por otro. Las ópticas formadoras de imagen tienen como objetivo la obtención de imágenes de puntos del objeto en el plano de la imagen. Por su parte, la óptica anidólica, surgida del desarrollo de aplicaciones de concentración e iluminación, se centra en la transferencia de energía en forma de luz de forma eficiente. En general, son preferibles los diseños ópticos que den como resultado sistemas compactos, para ambos tipos de ópticas (formadora de imagen y anidólica). En el caso de los sistemas anidólicos, una óptica compacta permite tener costes de producción reducidos. Hay dos razones: (1) una óptica compacta presenta volúmenes reducidos, lo que significa que se necesita menos material para la producción en masa; (2) una óptica compacta es pequeña y ligera, lo que ahorra costes en el transporte. Para los sistemas ópticos de formación de imagen, además de las ventajas anteriores, una óptica compacta aumenta la portabilidad de los dispositivos, que es una gran ventaja en tecnologías de visualización portátiles, tales como cascos de realidad virtual (HMD del inglés Head Mounted Display). Esta tesis se centra por tanto en nuevos enfoques de diseño de sistemas ópticos compactos para aplicaciones tanto de formación de imagen, como anidólicas. Los colimadores son uno de los diseños clásicos dentro la óptica anidólica, y se pueden utilizar en aplicaciones fotovoltaicas y de iluminación. Hay varios enfoques a la hora de diseñar estos colimadores. Los diseños convencionales tienen una relación de aspecto mayor que 0.5. Con el fin de reducir la altura del colimador manteniendo el área de iluminación, esta tesis presenta un diseño de un colimador multicanal. En óptica formadora de imagen, las superficies asféricas y las superficies sin simetría de revolución (o freeform) son de gran utilidad de cara al control de las aberraciones de la imagen y para reducir el número y tamaño de los elementos ópticos. Debido al rápido desarrollo de sistemas de computación digital, los trazados de rayos se pueden realizar de forma rápida y sencilla para evaluar el rendimiento del sistema óptico analizado. Esto ha llevado a los diseños ópticos modernos a ser generados mediante el uso de diferentes técnicas de optimización multi-paramétricas. Estas técnicas requieren un buen diseño inicial como punto de partida para el diseño final, que será obtenido tras un proceso de optimización. Este proceso precisa un método de diseño directo para superficies asféricas y freeform que den como resultado un diseño cercano al óptimo. Un método de diseño basado en ecuaciones diferenciales se presenta en esta tesis para obtener un diseño óptico formado por una superficie freeform y dos superficies asféricas. Esta tesis consta de cinco capítulos. En Capítulo 1, se presentan los conceptos básicos de la óptica formadora de imagen y de la óptica anidólica, y se introducen las técnicas clásicas del diseño de las mismas. El Capítulo 2 describe el diseño de un colimador ultra-compacto. La relación de aspecto ultra-baja de este colimador se logra mediante el uso de una estructura multicanal. Se presentará su procedimiento de diseño, así como un prototipo fabricado y la caracterización del mismo. El Capítulo 3 describe los conceptos principales de la optimización de los sistemas ópticos: función de mérito y método de mínimos cuadrados amortiguados. La importancia de un buen punto de partida se demuestra mediante la presentación de un mismo ejemplo visto a través de diferentes enfoques de diseño. El método de las ecuaciones diferenciales se presenta como una herramienta ideal para obtener un buen punto de partida para la solución final. Además, diferentes técnicas de interpolación y representación de superficies asféricas y freeform se presentan para el procedimiento de optimización. El Capítulo 4 describe la aplicación del método de las ecuaciones diferenciales para un diseño de un sistema óptico de una sola superficie freeform. Algunos conceptos básicos de geometría diferencial son presentados para una mejor comprensión de la derivación de las ecuaciones diferenciales parciales. También se presenta un procedimiento de solución numérica. La condición inicial está elegida como un grado de libertad adicional para controlar la superficie donde se forma la imagen. Basado en este enfoque, un diseño anastigmático se puede obtener fácilmente y se utiliza como punto de partida para un ejemplo de diseño de un HMD con una única superficie reflectante. Después de la optimización, dicho diseño muestra mejor rendimiento. El Capítulo 5 describe el método de las ecuaciones diferenciales ampliado para diseños de dos superficies asféricas. Para diseños ópticos de una superficie, ni la superficie de imagen ni la correspondencia entre puntos del objeto y la imagen pueden ser prescritas. Con esta superficie adicional, la superficie de la imagen se puede prescribir. Esto conduce a un conjunto de tres ecuaciones diferenciales ordinarias implícitas. La solución numérica se puede obtener a través de cualquier software de cálculo numérico. Dicho procedimiento también se explica en este capítulo. Este método de diseño da como resultado una lente anastigmática, que se comparará con una lente aplanática. El diseño anastigmático converge mucho más rápido en la optimización y la solución final muestra un mejor rendimiento. ABSTRACT We will consider optical design from two points of view: imaging optics and nonimaging optics. Imaging optics focuses on the imaging of the points of the object. Nonimaging optics arose from the development of concentrators and illuminators, focuses on the transfer of light energy, and has wide applications in illumination and concentration photovoltaics. In general, compact optical systems are necessary for both imaging and nonimaging designs. For nonimaging optical systems, compact optics use to be important for reducing cost. The reasons are twofold: (1) compact optics is small in volume, which means less material is needed for mass-production; (2) compact optics is small in size and light in weight, which saves cost in transportation. For imaging optical systems, in addition to the above advantages, compact optics increases portability of devices as well, which contributes a lot to wearable display technologies such as Head Mounted Displays (HMD). This thesis presents novel design approaches of compact optical systems for both imaging and nonimaging applications. Collimator is a typical application of nonimaging optics in illumination, and can be used in concentration photovoltaics as well due to the reciprocity of light. There are several approaches for collimator designs. In general, all of these approaches have an aperture diameter to collimator height not greater than 2. In order to reduce the height of the collimator while maintaining the illumination area, a multichannel design is presented in this thesis. In imaging optics, aspheric and freeform surfaces are useful in controlling image aberrations and reducing the number and size of optical elements. Due to the rapid development of digital computing systems, ray tracing can be easily performed to evaluate the performance of optical system. This has led to the modern optical designs created by using different multi-parametric optimization techniques. These techniques require a good initial design to be a starting point so that the final design after optimization procedure can reach the optimum solution. This requires a direct design method for aspheric and freeform surface close to the optimum. A differential equation based design method is presented in this thesis to obtain single freeform and double aspheric surfaces. The thesis comprises of five chapters. In Chapter 1, basic concepts of imaging and nonimaging optics are presented and typical design techniques are introduced. Readers can obtain an understanding for the following chapters. Chapter 2 describes the design of ultra-compact collimator. The ultra-low aspect ratio of this collimator is achieved by using a multichannel structure. Its design procedure is presented together with a prototype and its evaluation. The ultra-compactness of the device has been approved. Chapter 3 describes the main concepts of optimizing optical systems: merit function and Damped Least-Squares method. The importance of a good starting point is demonstrated by presenting an example through different design approaches. The differential equation method is introduced as an ideal tool to obtain a good starting point for the final solution. Additionally, different interpolation and representation techniques for aspheric and freeform surface are presented for optimization procedure. Chapter 4 describes the application of differential equation method in the design of single freeform surface optical system. Basic concepts of differential geometry are presented for understanding the derivation of partial differential equations. A numerical solution procedure is also presented. The initial condition is chosen as an additional freedom to control the image surface. Based on this approach, anastigmatic designs can be readily obtained and is used as starting point for a single reflective surface HMD design example. After optimization, the evaluation shows better MTF. Chapter 5 describes the differential equation method extended to double aspheric surface designs. For single optical surface designs, neither image surface nor the mapping from object to image can be prescribed. With one more surface added, the image surface can be prescribed. This leads to a set of three implicit ordinary differential equations. Numerical solution can be obtained by MATLAB and its procedure is also explained. An anastigmatic lens is derived from this design method and compared with an aplanatic lens. The anastigmatic design converges much faster in optimization and the final solution shows better performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de la presente investigación consiste en estudiar el aprovechamiento solar para el calentamiento de los fangos en los digestores anaerobios mediante agua caliente circulando en el interior de un serpentín que rodea la superficie de dicho digestor, como alternativa a los métodos convencionales del calentamiento de fangos como la resistencia eléctrica o el intercambiador de calor mediante la energía obtenida por el gas metano producido en la digestión anaerobia. Se utilizaron 3 digestores, dos de los cuales se calentaron con agua caliente en el interior de un serpentín procedente de un sistema de calentamiento de agua con colectores solares planos (uno aislado mediante una capa de fibra de vidrio y poliuretano y otro sin aislar).El tercer digestor no tenía calentamiento exterior con el objetivo de observar su comportamiento y comparar su evolución con el resto de los digestores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El planteamiento tradicional de análisis de la accidentalidad en carretera pasa por la consideración de herramientas paliativas, como son la identificación y gestión de los puntos negros o tramos de concentración de accidentes, o preventivas, como las auditorías e inspecciones de seguridad vial. En esta tesis doctoral se presenta un planteamiento complementario a estas herramientas, desde una perspectiva novedosa: la consideración de los tramos donde no se producen accidentes; son los denominados Tramos Blancos. La tesis persigue demostrar que existen determinados parámetros del diseño de las carreteras y del tráfico que, bajo características generales similares de las vías, tienen influencia en el hecho de que se produzcan o no accidentes, adicionalmente a la exposición al riesgo, como factor principal, y a otros factores. La propia definición de los Tramos Blancos, entendidos como tramos de carreteras de longitud representativa donde no se han producido accidentes con víctimas mortales o heridos graves durante un periodo largo de tiempo, garantiza que esta situación no se produzca como consecuencia de la aleatoriedad de los accidentes, sino que pudiera deberse a una confluencia específica de determinados parámetros de la geometría de la vía y del tráfico total y de vehículos pesados. Para el desarrollo de esta investigación se han considerado la red de autopistas de peaje y las carreteras convencionales de la Red del Estado de España, que supone un total de 17.000 kilómetros, y los datos de accidentes con víctimas mortales y heridos graves en el periodo 2006-2010, ambos incluidos, en estas redes (un total de 10.000 accidentes). La red viaria objeto de análisis supone el 65% de la longitud de la Red de Carreteras del Estado, por la que circula el 33% de su tráfico; en ella se produjeron en el año 2013 el 47% de los accidentes con víctimas y el 60% de las víctimas mortales de la Red de Carreteras del Estado. Durante la investigación se ha desarrollado una base de datos de 250.130 registros y más de 3.5 millones de datos en el caso de las autopistas de peaje de la Red de Carreteras del Estado y de 935.402 registros y más de 14 millones de datos en el caso de la red convencional del Estado analizada. Tanto las autopistas de peaje como las carreteras convencionales han sido clasificadas según sus características de tráfico, de manera que se valoren vías con nivel de exposición al riesgo similar. Para cada tipología de vía, se ha definido como longitud de referencia para que un tramo se considere Tramo Blanco la longitud igual al percentil 95 de las longitudes de tramos sin accidentes con heridos graves o víctimas mortales durante el periodo 2006-2010. En el caso de las autopistas de peaje, en la tipología que ha sido considerada para la definición del modelo, esta longitud de referencia se estableció en 14.5 kilómetros, mientras que en el caso de las carreteras convencionales, se estableció en 7.75 kilómetros. Para cada uno de los tipos de vía considerados se han construido una base de datos en la que se han incluido las variables de existencia o no de Tramo Blanco, así como las variables de tráfico (intensidad media diaria total, intensidad de vehículos pesados y porcentaje de vehículos pesados ), la velocidad media y las variables de geometría (número de carriles, ancho de carril, ancho de arcén derecho e izquierdo, ancho de calzada y plataforma, radio, peralte, pendiente y visibilidad directa e inversa en los casos disponibles); como variables adicionales, se han incluido el número de accidentes con víctimas, los fallecidos y heridos graves, índices de peligrosidad, índices de mortalidad y exposición al riesgo. Los trabajos desarrollados para explicar la presencia de Tramos Blancos en la red de autopistas de peaje han permitido establecer las diferencias entre los valores medios de las variables de tráfico y diseño geométrico en Tramos Blancos respecto a tramos no blancos y comprobar que estas diferencias son significativas. Así mismo, se ha podido calibrar un modelo de regresión logística que explica parcialmente la existencia de Tramos Blancos, para rangos de tráfico inferiores a 10.000 vehículos diarios y para tráficos entre 10.000 y 15.000 vehículos diarios. Para el primer grupo (menos de 10.000 vehículos al día), las variables que han demostrado tener una mayor influencia en la existencia de Tramo Blanco son la velocidad media de circulación, el ancho de carril, el ancho de arcén izquierdo y el porcentaje de vehículos pesados. Para el segundo grupo (entre 10.000 y 15.000 vehículos al día), las variables independientes más influyentes en la existencia de Tramo Blanco han sido la velocidad de circulación, el ancho de calzada y el porcentaje de vehículos pesados. En el caso de las carreteras convencionales, los diferentes análisis realizados no han permitido identificar un modelo que consiga una buena clasificación de los Tramos Blancos. Aun así, se puede afirmar que los valores medios de las variables de intensidad de tráfico, radio, visibilidad, peralte y pendiente presentan diferencias significativas en los Tramos Blancos respecto a los no blancos, que varían en función de la intensidad de tráfico. Los resultados obtenidos deben considerarse como la conclusión de un análisis preliminar, dado que existen otros parámetros, tanto de diseño de la vía como de la circulación, el entorno, el factor humano o el vehículo que podrían tener una influencia en el hecho que se analiza, y no se han considerado por no disponer de esta información. En esta misma línea, el análisis de las circunstancias que rodean al viaje que el usuario de la vía realiza, su tipología y motivación es una fuente de información de interés de la que no se tienen datos y que permitiría mejorar el análisis de accidentalidad en general, y en particular el de esta investigación. Adicionalmente, se reconocen limitaciones en el desarrollo de esta investigación, en las que sería preciso profundizar en el futuro, reconociendo así nuevas líneas de investigación de interés. The traditional approach to road accidents analysis has been based in the use of palliative tools, such as black spot (or road sections) identification and management, or preventive tools, such as road safety audits and inspections. This thesis shows a complementary approach to the existing tools, from a new perspective: the consideration of road sections where no accidents have occurred; these are the so-called White Road Sections. The aim of this thesis is to show that there are certain design parameters and traffic characteristics which, under similar circumstances for roads, have influence in the fact that accidents occur, in addition to the main factor, which is the risk exposure, and others. White Road Sections, defined as road sections of a representative length, where no fatal accidents or accidents involving serious injured have happened during a long period of time, should not be a product of randomness of accidents; on the contrary, they might be the consequence of a confluence of specific parameters of road geometry, traffic volumes and heavy vehicles traffic volumes. For this research, the toll motorway network and single-carriageway network of the Spanish National Road Network have been considered, which is a total of 17.000 kilometers; fatal accidents and those involving serious injured from the period 2006-2010 have been considered (a total number of 10.000 accidents). The road network covered means 65% of the total length of the National Road Network, which allocates 33% of traffic volume; 47% of accidents with victims and 60% of fatalities happened in these road networks during 2013. During the research, a database of 250.130 registers and more than 3.5 million data for toll motorways and 935.042 registers and more than 14 million data for single carriageways of the National Road Network was developed. Both toll motorways and single-carriageways have been classified according to their traffic characteristics, so that the analysis is performed over roads with similar risk exposure. For each road type, a reference length for White Road Section has been defined, as the 95 percentile of all road sections lengths without accidents (with fatalities or serious injured) for 2006-2010. For toll motorways, this reference length concluded to be 14.5 kilometers, while for single-carriageways, it was defined as 7.75 kilometers. A detailed database was developed for each type of road, including the variable “existence of White Road Section”, as well as variables of traffic (average daily traffic volume, heavy vehicles average daily traffic and percentage of heavy vehicles from the total traffic volume), average speed and geometry variables (number of lanes, width of lane, width of shoulders, carriageway width, platform width, radius, superelevation, slope and visibility); additional variables, such as number of accidents with victims, number of fatalities or serious injured, risk and fatality rates and risk exposure, have also been included. Research conducted for the explanation of the presence of White Road Sections in the toll motorway network have shown statistically significant differences in the average values of variables of traffic and geometric design in White Road Sections compared with other road sections. In addition, a binary logistic model for the partial explanation of the presence of White Road Sections was developed, for traffic volumes lower than 10.000 daily vehicles and for those running from 10.000 to 15.000 daily vehicles. For the first group, the most influent variables for the presence of White Road Sections were the average speed, width of lane, width of left shoulder and percentage of heavy vehicles. For the second group, the most influent variables were found to be average speed, carriageway width and percentage of heavy vehicles. For single-carriageways, the different analysis developed did not reach a proper model for the explanation of White Road Sections. However, it can be assumed that the average values of the variables of traffic volume, radius, visibility, superelevation and slope show significant differences in White Road Sections if compared with others, which also vary with traffic volumes. Results obtained should be considered as a conclusion of a preliminary analysis, as there are other parameters, not only design-related, but also regarding traffic, environment, human factor and vehicle which could have an influence in the fact under research, but this information has not been considered in the analysis, as it was not available. In parallel, the analysis of the circumstances around the trip, including its typology and motivation is an interesting source of information, from which data are not available; the availability of this information would be useful for the improvement of accident analysis, in general, and for this research work, in particular. In addition, there are some limitations in the development of the research work; it would be necessary to develop an in-depth analysis in the future, thus assuming new research lines of interest.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las enfermedades arteriales vienen presididas por la aterosclerosis, que es un proceso crónico de degeneración, que evoluciona hacia la obstrucción de la luz arterial. La pared de la arteria se engrosa debido al depósito de elementos grasos tales como el colesterol. Los stents intraluminales son diminutas estructuras tubulares autoexpandibles de malla de metal, que se colocan dentro de la arteria coronaria después de una angioplastia con balón para prevenir el cierre de dicha arteria. A pesar de estar diseñados para ser compatibles con el tejido humano, a menudo se da una reacción en cadena de consecuencias indeseables. La reestenosis intra-stent es un problema creciente debido al importante incremento que se ha producido en la utilización del stent intracoronario como forma de revascularización percutánea. Se habla de una incidencia global del 28%, siendo la causa principal de su aparición la proliferación neointimal a través de una compleja cascada de sucesos que pueden tardar meses en desarrollarse. Una de las reacciones más importantes es la trombosis o la formación de una fina capa de coágulo como respuesta a la presencia de un material extraño. Este proceso es multifactorial, y en él intervienen la regresión de la pared como consecuencia del estiramiento previo, la denudación endotelial, lo que permite la agregación plaquetaria, la proliferación neointimal, lo que facilita a los receptores de membrana desencadenar un proceso de agregación posterior y, por último, el remodelado negativo inadecuado de la pared, lo que produce pérdida de luz arterial. Se ha observado frecuentemente que el depósito de ateroma en la pared arterial está relacionado con el valor de los esfuerzos cortantes en la misma. Hay mayores probabilidades de engrosamiento de la pared en las zonas donde son bajos los esfuerzos cortantes, quizá por el mayor tiempo de residencia de las partículas circulantes por el torrente sanguíneo. Si nos centramos en la afirmación anterior, el siguiente paso sería buscar las zonas susceptibles de presentar un valor bajo de dichos esfuerzos. Las zonas potencialmente peligrosas son los codos y bifurcaciones, entre otras. Nos hemos centrado en una bifurcación coronaria, ya que los patrones de flujo que se suelen presentar, tales como recirculación y desprendimiento de vórtices están íntimamente relacionados con las técnicas de implantación de stents en esta zona. Proyectamos nuestros esfuerzos en el estudio de dos técnicas de implante, utilizando un único stent y una tercera a través de una configuración de culotte con el uso de dos stents. El primer caso trata de una bifurcación con un único stent en la rama principal cuyos struts cierran el orificio lateral que da salida a la rama secundaria de la bifurcación, es decir sería un stent sin orificio. El segundo consiste en un único stent también, pero con la diferencia de que éste presenta un orificio de comunicación con la rama lateral. Todas estas técnicas se aplicaron a bifurcaciones de 45º y de 90º. Introdujimos las geometrías -una vez confeccionadas con el código comercial Gambit- en el programa Ansys-Fluent contemplando régimen estacionario. Los resultados obtenidos fueron cotejados con los experimentales, que se realizaron paralelamente, con el fin de corroborarlos. Una vez validados, el estudio computacional ya contó con la fiabilidad suficiente como para abordar el régimen no estacionario, tanto en la versión de reposo como en la de ejercicio –hiperemia- El comportamiento reológico de la sangre para régimen no estacionario en estado de reposo es otra de las tareas abordadas, realizando una comparativa de los modelos Newtoniano, Carreau y Ley de Potencias. Finalmente, en una última etapa, debido a la reciente incursión de los stents diseñados específicamente frente a los convencionales, se aborda el comportamiento hemodinámico de los mismos. Concretamente, se comparó el patrón de flujo en un modelo de bifurcación coronaria con los nuevos stents (Stentys) y los convencionales. Se estudiaron cuatro modelos, a saber, stent simple en la rama principal, stent simple en la rama secundaria, culotte desplegando el primer stent en la rama principal y culotte desplegando el primer stent en la rama secundaria. La bifurcación estudiada presenta un ángulo de apertura de 45º y la relación de diámetros de las ramas hija se ajustaron de acuerdo a la ley de Finet. Se recogieron resultados experimentales en el laboratorio y se corrieron simulaciones numéricas con Ansys Fluent paralelamente. Las magnitudes que se tuvieron en cuenta con el fin de ubicar las regiones potencialmente ateroscleróticas fueron los esfuerzos cortantes, vorticidad y caída de presión. ABSTRACT Nowadays, restenosis after percutaneous dilation is the major drawback of coronary angioplasty. It represents a special form of atherosclerosis due to the healing process secondary to extensive vessel trauma induced after intracoronary balloon inflation. The use of coronary stents may decrease the incidence of this phenomenon. Unfortunately, intra-stent restenosis still occurs in 20-30% of the cases following the stent implantation. Most experiments suggest a correlation between low wall shear stress and wall thickness. The preferential locations for the atherosclerotic plaque are bifurcations. The objective of this work is to analyze the local hemodynamic changes caused in a coronary bifurcation by three different stenting techniques: simple stenting of the main vessel, simple stenting of the main vessel with kissing balloon in the side branch and culotte. To carry out this study an idealized geometry of a coronary bifurcation is used, and two bifurcation angles, 45º and 90º, are chosen as representative of the wide variety of real configurations. Both numerical simulations and experimental measurements are performed. First, steady simulations are carried out with the commercial code Ansys-Fluent, then, experimental measurements with PIV (Particle Image Velocimetry), obtained in the laboratory, are used to validate the numerical simulations. The steady computational simulations show a good overall agreement with the experimental data. Then, pulsatile flow is considered to take into account the transient effects. The time averaged wall shear stress, oscillatory shear index and pressure drop obtained numerically are used to compare the behavior of the stenting techniques. In a second step, the rheologic behavior of blood was considered comparing Newtonian, Carreau and Power Law models. Finally, as a result of previous investigations with conventional stents and after the recent emergence of several devices specifically designed for coronary bifurcations angioplasty, the hemodynamic performance of these new devices (Stentys) was compared to conventional ones and techniques in a coronary bifurcation model. Four different stenting techniques: simple stenting of the main vessel, simple stenting of the side vessel, culotte deploying the first stent in the main vessel and culotte deploying the first stent in the side vessel have been considered. To carry out this study an idealized geometry of a coronary bifurcation is used. A 45 degrees bifurcation angle is considered and the daughter branches diameters are obtained according to the Finet law. Both experiments in the laboratory and numerical simulations were used , focusing on important factors for the atherosclerosis development, like the wall shear stress, the oscillation shear index, the pressure loss and the vorticity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existe un amplio catálogo de posibles soluciones para resolver la problemática de las zapatas de medianería así como, por extensión, las zapatas de esquina como caso particular de las anteriores. De ellas, las más habitualmente empleadas en estructuras de edificación son, por un lado, la utilización de una viga centradora que conecta la zapata de medianería con la zapata del pilar interior más próximo y, por otro, la colaboración de la viga de la primera planta trabajando como tirante. En la primera solución planteada, el equilibrio de la zapata de medianería y el centrado de la respuesta del terreno se consigue gracias a la colaboración del pilar interior con su cimentación y al trabajo a flexión de la viga centradora. La modelización clásica considera que se logra un centrado total de la reacción del terreno, con distribución uniforme de las tensiones de contacto bajo ambas zapatas. Este planteamiento presupone, por tanto, que la viga centradora logra evitar cualquier giro de la zapata de medianería y que el pilar puede, por ello, considerarse perfectamente empotrado en la cimentación. En este primer modelo, el protagonismo fundamental recae en la viga centradora, cuyo trabajo a flexión conduce frecuentemente a unas escuadrías y a unas cuantías de armado considerables. La segunda solución, plantea la colaboración de la viga de la primera planta, trabajando como tirante. De nuevo, los métodos convencionales suponen un éxito total en el mecanismo estabilizador del tirante, que logra evitar cualquier giro de la zapata de medianería, dando lugar a una distribución de tensiones también uniforme. Los modelos convencionales existentes para el cálculo de este tipo de cimentaciones presentan, por tanto, una serie de simplificaciones que permiten el cálculo de las mismas, por medios manuales, en un tiempo razonable, pero presentan el inconveniente de su posible alejamiento del comportamiento real de la cimentación, con las consecuencias negativas que ello puede suponer en el dimensionamiento de estos elementos estructurales. La presente tesis doctoral desarrolla un contraste de los modelos convencionales de cálculo de cimentaciones de medianería y esquina, mediante un análisis alternativo con modelos de elementos finitos, con el objetivo de poner de manifiesto las diferencias entre los resultados obtenidos con ambos tipos de modelización, analizar cuáles son las variables que más influyen en el comportamiento real de este tipo de cimentaciones y proponer un nuevo modelo de cálculo, de tipo convencional, más ajustado a la realidad. El proceso de investigación se desarrolla mediante una etapa experimental virtual que utiliza como modelo un pórtico tipo de edificación, ortogonal, de hormigón armado, con dos vanos y número variable de plantas. Tras identificar el posible giro de la cimentación como elemento clave en el comportamiento de las zapatas de medianería y de esquina, se adoptan como variables de estudio aquellas que mayor influencia puedan tener sobre el citado giro de las zapatas y sobre la rigidez del conjunto del elemento estructural. Así, se han estudiado luces de 3 m a 7 m, diferente número de plantas desde baja+1 hasta baja+4, resistencias del terreno desde 100 kN/m2 hasta 300 kN/m2, relaciones de forma de la zapata de medianería de 1,5 : 1 y 2 : 1, aumento y reducción de la cuantía de armado de la viga centradora y variación del canto de la viga centradora desde el mínimo canto compatible con el anclaje de la armadura de los pilares hasta un incremento del 75% respecto del citado canto mínimo. El conjunto de pórticos generados al aplicar las variables indicadas, se ha calculado tanto por métodos convencionales como por el método de los elementos finitos. Los resultados obtenidos ponen de manifiesto importantes discrepancias entre ambos métodos que conducen a importantes diferencias en el dimensionamiento de este tipo de cimentaciones. El empleo de los métodos tradicionales da lugar, por un lado, a un sobredimensionamiento de la armadura de la viga centradora y, por otro, a un infradimensionamiento, tanto del canto de la viga centradora, como del tamaño de la zapata de medianería y del armado de la viga de la primera planta. Finalizado el análisis y discusión de resultados, la tesis propone un nuevo método alternativo, de carácter convencional y, por tanto, aplicable a un cálculo manual en un tiempo razonable, que permite obtener los parámetros clave que regulan el comportamiento de las zapatas de medianería y esquina, conduciendo a un dimensionamiento más ajustado a las necesidades reales de este tipo de cimentación. There is a wide catalogue of possible solutions to solve the problem of party shoes and, by extension, corner shoes as a special case of the above. From all of them, the most commonly used in building structures are, on one hand, the use of a centering beam that connects the party shoe with the shoe of the nearest interior pillar and, on the other hand, the collaboration of the beam of the first floor working as a tie rod. In the first proposed solution, the balance of the party shoe and the centering of the ground response is achieved thanks to the collaboration of the interior pillar with his foundation along with the bending work of the centering beam. Classical modeling considers that a whole centering of the ground reaction is achieved, with uniform contact stress distribution under both shoes. This approach to the issue presupposes that the centering beam manages to avoid any rotation of the party shoe, so the pillar can be considered perfectly embedded in the foundation. In this first model, the leading role lies in the centering beam, whose bending work usually leads to important section sizes and high amounts of reinforced. The second solution, consideres the collaboration of the beam of the first floor, working as tie rod. Again, conventional methods involve a total success in the stabilizing mechanism of the tie rod, that manages to avoid any rotation of the party shoe, resulting in a stress distribution also uniform. Existing conventional models for calculating such foundations show, therefore, a series of simplifications which allow calculation of the same, by manual means, in a reasonable time, but have the disadvantage of the possible distance from the real behavior of the foundation, with the negative consequences this could bring in the dimensioning of these structural elements. The present thesis develops a contrast of conventional models of calculation of party and corner foundations by an alternative analysis with finite element models with the aim of bring to light the differences between the results obtained with both types of modeling, analysis which are the variables that influence the real behavior of this type of foundations and propose a new calculation model, conventional type, more adjusted to reality. The research process is developed through a virtual experimental stage using as a model a typical building frame, orthogonal, made of reinforced concrete, with two openings and variable number of floors. After identifying the possible spin of the foundation as the key element in the behavior of the party and corner shoes, it has been adopted as study variables, those that may have greater influence on the spin of the shoes and on the rigidity of the whole structural element. So, it have been studied lights from 3 m to 7 m, different number of floors from lower floor + 1 to lower floor + 4, máximum ground stresses from 100 kN/m2 300 kN/m2, shape relationships of party shoe 1,5:1 and 2:1, increase and decrease of the amount of reinforced of the centering beam and variation of the height of the centering beam from the minimum compatible with the anchoring of the reinforcement of pillars to an increase of 75% from the minimum quoted height. The set of frames generated by applying the indicated variables, is calculated both by conventional methods such as by the finite element method. The results show significant discrepancies between the two methods that lead to significant differences in the dimensioning of this type of foundation. The use of traditional methods results, on one hand, to an overdimensioning of the reinforced of the centering beam and, on the other hand, to an underdimensioning, both the height of the centering beam, such as the size of the party shoe and the reinforced of the beam of the first floor. After the analysis and discussion of results, the thesis proposes a new alternative method, conventional type and, therefore, applicable to a manual calculation in a reasonable time, that allows to obtain the key parameters that govern the behavior of party and corner shoes, leading to a dimensioning more adjusted to the real needings of this type of foundation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis tiene por finalidad contribuir al conocimiento de los procesos de transformación de las ciudades convencionales en Ciudades Inteligentes o Smart Cities, el nuevo paradigma urbano, que surge como consecuencia de la utilización de las Tecnologías de la Información y de las Comunicaciones, las TIC, para mejorar la calidad de vida de las personas y aumentar la eficiencia y eficacia de los procesos, servicios e infraestructuras de la ciudad. El proceso de urbanización de la población mundial constituye una de las principales tendencias globales. Los retos a los que se enfrentan las urbes actuales para satisfacer las necesidades de sus habitantes, así como la forma en que cada ciudad aborda dichos retos, propician el desarrollo de estudios comparativos y rankings de ciudades. La oportunidad para llevar a cabo esta tesis deriva de: La novedad del concepto de Ciudad Inteligente. La necesidad de establecer estudios comparativos, respecto a dicho concepto, entre ciudades con características socioeconómicas y culturales comunes, dado que la mayoría de los estudios y rankings se desarrollan para conjuntos de ciudades cuyas características son muy dispares, pues, en general son seleccionadas por su condición de capitales de estados o de centros económicos-financieros. El interés de disponer de estudios sobre ciudades con tamaños de población medianos, inferiores al millón de habitantes, las cuales tienen baja presencia en los estudios comparativos. La inexistencia de estudios comparativos entre las ciudades españolas, en relación con el concepto de Ciudad Inteligente. La existencia de la Red Española de Ciudades Inteligentes, que permite disponer de una muestra de ciudades adecuada, para llevar a cabo un estudio comparativo de acuerdo con los puntos anteriores. El objetivo general de la presente tesis es contribuir al conocimiento de los procesos de transformación de la ciudad convencional en Ciudad Inteligente, a través de la formulación y aplicación de un modelo de evaluación, basado en el concepto holístico de Ciudad Inteligente o Smart City y desde la perspectiva del ciudadano. La metodología de trabajo seguida comprende, en primer lugar, la revisión del estado del arte, centrada en tres aspectos: la evolución del concepto Smart City, los estudios comparativos sobre Ciudades Inteligentes y las medidas que las ciudades españolas están implantando en la práctica para llevar a cabo su transformación en Ciudades Inteligentes. A continuación se lleva a cabo el diseño el modelo de evaluación. Este modelo refleja el carácter holístico del concepto de Ciudad Inteligente, para lo cual, de acuerdo con las definiciones que encontramos en la literatura, evalúa la situación de cada ciudad en relación con seis ejes o pilares, comúnmente aceptados por los diferentes autores: e-Gobierno y e-Gobernanza, Movilidad, Sostenibilidad Ambiental, Desarrollo Económico, Capital Intelectual y Calidad de Vida. El trabajo desarrollado implica un análisis, que se desarrolla de forma ordenada para cada uno de los ejes y, dentro de éstos, para sus correspondientes factores. En total se analizan 18 factores. Para cada uno de los ejes se lleva a cabo una revisión de las iniciativas más representativas para, a continuación, analizar y evaluar los correspondientes los factores. De forma complementaria al desarrollo del trabajo, se llevó a cabo una encuesta, dirigida a profesionales de diferentes áreas y sectores, todos ellos en el ámbito de las Ciudades Inteligentes. El objetivo de la encuesta es conocer, de acuerdo con la opinión de los profesionales, la situación actual en materia de despliegue de Ciudades Inteligentes, las actuaciones que consideran de mayor interés para la ciudad y las barreras del proceso de cambio. Una vez definido el modelo, se ha aplicado a las 62 ciudades que forman la Red Española de Ciudades Inteligentes (RECI), valorando los factores y los ejes para cada una de ellas. Así mismo, se ha analizado la influencia de las tres variables siguientes: tamaño de población, densidad de población y presupuesto municipal por habitante, determinando la relación entre el porcentaje de ciudades inteligentes de la muestra, en cada factor. Adicionalmente en el eje Capital Intelectual,se analizó la influencia del porcentaje de habitantes con estudios superiores. Las 62 ciudades RECI que componen la muestra evaluada, representan el 43 % de las ciudades españolas que cuentan con poblaciones superiores a los 50.000 habitantes. La población que abarca la muestra de ciudades estudiada representa el 35% de la población española. Finalmente, se ha determinado el ranking con las ciudades de RECI, de acuerdo con el modelo diseñado. Así mismo se ha llevado a cabo el análisis de sensibilidad, determinado el ranking resultante para la misma muestra de ciudades, aplicando la ponderación de los factores. Las principales aportaciones de la tesis son: Desarrollar un modelo de evaluación de ciudades basada en el concepto holístico de la Smart City y desde la perspectiva del ciudadano. Desarrollar una metodología de trabajo fundamentada en el análisis sistematizado de las web municipales, como medio para conocer la situación de las ciudades, en lugar de los datos estadísticos publicados, que son la fuente de información habitualmente empleada en los estudios comparativos. Disponer de un estudio comparativo específico de ciudades españolas. Llevar a cabo un estudio sobre una muestra de ciudades de tamaño medio, con características socioeconómicas y culturales comparables. Mejorar el conocimiento de los procesos que se están llevando a cabo en ciudades con poblaciones inferiores al millón de habitantes. The purpose of this thesis is to contribute to the knowledge of the cities and the transformation that is taking part in traditional cities becoming Smart Cities. The Smart City concept is the new urban paradigm that is born from the extensive use of Information Technologies (IT) in order to accomplish better citizen’s quality of life as well as improvements in urban processes, services and infrastructures. Several rankings and benchmarking studies are being conducted globally, in response to the increasing of urban population that is taking part around the world and the subsequent challenges to be confronted by the cities. This thesis aims to contribute to these studies. The opportunity for this thesis comes from: The Smart City concept as a new concept. The need of benchmarking studies focused on the Smart City concept, carried on cities with similar social and economic characteristics. The interest on benchmarking studies on medium size cities (with less than one million inhabitants). The absence of benchmarking studies on Spanish cities. The existence of the Spanish Smart Cities Network that can be considered an appropriate sample for a benchmark study. The main goal of this thesis is to develop a Smart Cities assessment model based on the citizen point of view and taking into account a holistic concept of Smart City. The thesis methodology starts with the state of the art revision, focused on three items: the Smart City concept, the benchmark studies and the projects actually developed by the Spanish cities under processes for becoming Smart Cities. The next step is the assessment model design, in accordance with the six main axes or pillars referred in the academic literature: e-Government and e-Governance, Mobility, Environmental Sustainability, Economic Development, Smart Citizens and Quality of Life. Also, a survey has been conducted and addressed to experts working on the different areas related to the Smart Cities. The aim of this survey is to know their opinion about the deployment of the Smart Cities, the priorities considered by the cities and the barriers that delay the change processes. Once the assessment model was ready, it was applied to the Spanish Smart Cities Network, with 62 member cities. Also, the bearing of three variables: city population, population density and city budget per inhabitant, are studied. The 62 cities studied are 43 % of the Spanish cities with population over 50.000 inhabitants. The population living in these cities is the 35% of total Spanish population. The main contribution of this thesis are: An assessment model for Smart Cities that takes into account the holistic concept of the Smart City as well as the citizen experience. A methodology that comprises municipal web analysis instead of statistics data, which are the usual source of data for current benchmarking studies. A Spanish Smart Cities benchmark. A benchmark on medium size cities with similar social and economic characteristics. A better understanding of the urban processes that are taking part on cities under one million inhabitants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En éste trabajo se ofrece la realización de una célula elemental programable ópticamente, capaz de realizar hasta siete operaciones lógicas, constituyendo catorce pares de salida. El principio innovador de la célula, es el uso de fibras ópticas multimodo, enlazadas mediante acopladores convencionales de COs, a 1,3 fim. Como fuentes de radiación óptica se han empleado LEDs de bajo costo, constituyendo esto una nueva ventaja sobre otras células presentadas en la literatura del tema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La caracterización de módulos fotovoltaicos proporciona las especificaciones eléctricas que se necesitan para conocer los niveles de eficiencia energética que posee un módulo fotovoltaico de concentración. Esta caracterización se consigue a través de medidas de curvas IV, de igual manera que se obtienen para caracterizar los módulos convencionales. Este proyecto se ha realizado para la optimización y ampliación de un programa de medida y caracterización de hasta cuatro módulos fotovoltaicos que se encuentran en el exterior, sobre un seguidor. El programa, desarrollado en LabVIEW, opera sobre el sistema de medida, obteniendo los datos de caracterización del módulo que se está midiendo. Para ello en primer lugar se ha tomado como base una aplicación ya implementada y se ha analizado su funcionamiento para poder optimizarla y ampliarla para introducir nuevas prestaciones. La nueva prestación más relevante para la medida de los módulos, busca evitar que el módulo entre medida y medida, se encuentre disipando toda la energía que absorbe y se esté calentando. Esto se ha conseguido introduciendo una carga electrónica dentro del sistema de medida, que mantenga polarizado el módulo siempre y cuando, no se esté produciendo una medida sobre él. En este documento se describen los dispositivos que forman todo el sistema de medida, así como también se describe el software del programa. Además, se incluye un manual de usuario para un fácil manejo del programa. ABSTRACT. The aim of the characterization of concentrator photovoltaic modules (CPV) is to provide the electrical specifications to know the energy efficiency at operating conditions. This characterization is achieved through IV curves measures, the same way that they are obtained to characterize conventional silicon modules. The objective of this project is the optimization and improvement of a measurement and characterization system for CPV modules. A software has been developed in LabVIEW for the operation of the measurement system and data acquisition of the IV curves of the modules. At first, an already deployed application was taken as the basis and its operation was analyzed in order to optimize and extend to introduce new features. The more relevant update seeks to prevent the situation in which the module is dissipating all the energy between measurements. This has been achieved by introducing an electronic load into the measuring system. This load maintains the module biased at its maximum power point between measurement periods. This work describes the devices that take part in the measurement system, as well as the software program developed. In addition, a user manual is included for an easy handling of the program.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La energía fotovoltaica se va a convertir en una de las principales fuentes de electricidad del mundo en el futuro próximo. La reciente aprobación del Código técnico de la edificación, donde se fomenta su integración en determinados edificios nuevos, lo avala. Sin embargo, a la hora de llevar la implantación de esta energía a los proyectos, por parte de los arquitectos, no está tan lograda desde el punto de vista arquitectónico. Se encuentran con el reto añadido de tener que introducirlos en el diseño del proyecto sin conocer bien las posibilidades que presenta. Por tanto, se plantea la necesidad de facilitar herramientas de apoyo con el fin de orientar a los arquitectos. El propósito de esta investigación es dar a conocer los principios básicos de la energía solar fotovoltaica así como de las posibles estrategias concretas de integración arquitectónica, desde las convencionales hasta las más novedosas. Con el objetivo de acercarla más si cabe a los arquitectos y potenciar la versatilidad que tiene este tipo de energía a la hora de diseñar, logrando beneficios añadidos para el edificio y sus usuarios más allá de la mera producción de energía limpia. El planteamiento consiste pues en considerar los módulos fotovoltaicos desde un punto de vista tectónico, como un nuevo material de construcción.