715 resultados para No Convencionales
Resumo:
El crecimiento urbano descontrolado en países en vía de desarrollo conlleva grandes desafíos para la gestión del territorio frente al riesgo de inundaciones, aún más en relación al cambio climático. El propósito de la presente comunicación es describir los aspectos más generales y relevantes del proyecto Adaptación Urbana Verde. El software MODCEL© fue adoptado para realizar simulaciones de distintas alternativas de solución y así determinar zonas inundadas y viviendas afectadas de Riohacha, elementos clave para comparar alternativas. El software MODCEL soporta una familia de modelos matemáticos hidráulicos cuasi 3D, discretizando el territorio en ?céldas?. Las salidas de simulación se han reportado en un sistema de información geográfica para la visualización y análisis. A través de un proceso participativo, apoyado en una evaluación de tipo multicriterio, se ha llegado a generar un plan urbano integrado contra las inundaciones con medidas no convencionales estructurales, destacándose el uso de elementos peculiares del territorio como lo son los humedales (naturales y e intervenidos) de Riohacha. Los resultados conseguidos pretenden ser un referente local para la adaptación al cambio climático con visibilidad nacional en la reducción del riesgo de desastres.
Resumo:
No hay duda de que el ferrocarril es uno de los símbolos del avance tecnológico y social de la humanidad, y su imparable avance desde el primer tercio del Siglo XIX así lo atestigua. No obstante, a lo largo de gran parte de su historia se ha mostrado algo renuente a abrazar ciertas tecnologías, lo que le ha causado ser tachado de conservador. Sin embargo, en los últimos años, coincidiendo con el auge masivo de los trenes de alta velocidad, los metropolitanos y los tranvías, muchas tecnologías han ido penetrando en el mundo del ferrocarril. La que hoy nos ocupa es una de las que mayor valor añadido le ha proporcionado (y que probablemente le proporcionará también en el futuro): las comunicaciones móviles. Actualmente el uso de este tipo de tecnologías en el entorno ferroviario puede calificarse como de inicial o, por seguir la nomenclatura de las comunicaciones móviles públicas, de segunda generación. El GSM-R en las líneas de alta velocidad es un caso (aunque de éxito al fin y al cabo) que define perfectamente el estado del arte de las comunicaciones móviles en este entorno, ya que proporcionó un gran valor añadido a costa de un gran esfuerzo de estandarización; ha supuesto un importante salto adelante en el campo de la fiabilidad de este tipo de sistemas, aunque tiene unas grandes limitaciones de capacidad y graves problemas de escalabilidad. Todo hace pensar que en 2025 el sustituto de GSM-R deberá estar en el mercado. En cualquier caso, se debería abandonar la filosofía de crear productos de nicho, que son extraordinariamente caros, y abrazar las filosofías abiertas de las redes de comunicaciones públicas. Aquí es donde LTE, la última gran estrella de esta familia de estándares, puede aportar mucho valor. La idea subyacente detrás de esta Tesis es que LTE puede ser una tecnología que aporte gran valor a las necesidades actuales (y probablemente futuras) del sector del ferrocarril, no solamente en las líneas y trenes de alta velocidad, sino en las denominadas líneas convencionales y en los metros y tranvías. Dado que es un campo aún a día de hoy que dista bastante de estar completamente estudiado, se ha explorado la problemática de la propagación electromagnética en los diferentes entornos ferroviarios, como pueden ser los túneles de metro y la influencia de las estructuras de los trenes. En este sentido, se ha medido de forma bastante exhaustiva en ambos entornos. Por otro lado, dado que los sistemas multiantena son uno de los pilares fundamentales de los modernos sistemas de comunicaciones, se ha verificado de forma experimental la viabilidad de esta tecnología a la hora de implementar un sistema de comunicaciones trentierra en un túnel. Asimismo, de resultas de estas medidas, se ha comprobado la existencia de ciertos fenómenos físicos que pueden suponer una merma en la eficiencia de este tipo de sistemas. En tercer lugar, y dado que uno de los grandes desafíos de las líneas de alta velocidad está provocado por la gran celeridad a la que se desplazan los trenes, se ha explorado la influencia de este parámetro en la eficiencia global de una red completa de comunicaciones móviles. Por supuesto, se ha hecho especial hincapié en los aspectos relacionados con la gestión de la movilidad (traspasos o handovers Por último, a modo de cierre de la Tesis, se ha tratado de identificar los futuros servicios de comunicaciones que aportarán más valor a las explotaciones ferroviarias, así como los requisitos que supondrán para las redes de comunicaciones móviles. Para los casos antes enunciados (propagación, sistemas multiantena, movilidad y desafíos futuros) se proporcionan las contribuciones ya publicadas en revistas y congresos internacionales, así como las que están enviadas para su revisión. ABSTRACT There is almost no doubt that railways are one of the symbols of the technological and social progress of humanity. However, most of the time railways have been somewhat reluctant to embrace new technologies, gaining some reputation of being conservative. But in the last years, together with the massive boom of high speed lines, subways and trams all over the world, some technologies have broken through these conservative resistance. The one which concerns us now is one of the most value-added (both today and in the future): mobile communications. The state-of-the-art of these technologies in the railway field could be called as incipient, or (following the mobile communications’ notation) ‘second generation’. GSM-R, the best example of mobile communications in railways is a success story that shows perfectly the state-of-the-art of this field: it provided a noticeable mark-up but also required a great standardization effort; it also meant a huge step forward in the reliability of these systems but it also needs to face some scalability issues and some capacity problems. It looks more than feasible that in 2025 the alternative to GSM-R should be already available. Anyway, the vision here should be forgetting about expensive niche products, and embracing open standards like public mobile communications do. The main idea behind this Thesis is that LTE could be a technology that provides a lot of added value to the necessities of the railways of today and the future. And not only to highspeed lines, but also to the so-called conventional rail, subways and tramways. Due to the fact that even today, propagation in tunnels and influence of car bodies is far from being full-studied, we measured in a very exhaustive way the EM propagation in these two environments. Also, multiantenna systems are one of the basic foundations of the modern communications systems, so we experimentally verified the feasibility of using such a system in a train-towayside in a tunnel. Moreover, from the measurements carried out we proved the existence of some physical phenomena that could imply a decrease in the performance of these multiantenna systems. In third place, we have explored the influence of high-speed in the whole performance of the network, from the mobility management point-of-view. This high-speed movement is one of the most relevant challenges for the mobile communications networks. The emphasis was placed on the mobility aspects of the radio resource management. Finally, the Thesis closure is an identification of the future communication services that could provide a bigger addition of value to railways, and also the requirements that imply to mobile communications networks. For all the previous for scenarios depicted before (propagation, multiantenna systems, mobility and challenges) we provide some contributions already published (or submitted for revision or still in progress) on publications and international conferences.
Resumo:
Esta tesis considera dos tipos de aplicaciones del diseño óptico: óptica formadora de imagen por un lado, y óptica anidólica (nonimaging) o no formadora de imagen, por otro. Las ópticas formadoras de imagen tienen como objetivo la obtención de imágenes de puntos del objeto en el plano de la imagen. Por su parte, la óptica anidólica, surgida del desarrollo de aplicaciones de concentración e iluminación, se centra en la transferencia de energía en forma de luz de forma eficiente. En general, son preferibles los diseños ópticos que den como resultado sistemas compactos, para ambos tipos de ópticas (formadora de imagen y anidólica). En el caso de los sistemas anidólicos, una óptica compacta permite tener costes de producción reducidos. Hay dos razones: (1) una óptica compacta presenta volúmenes reducidos, lo que significa que se necesita menos material para la producción en masa; (2) una óptica compacta es pequeña y ligera, lo que ahorra costes en el transporte. Para los sistemas ópticos de formación de imagen, además de las ventajas anteriores, una óptica compacta aumenta la portabilidad de los dispositivos, que es una gran ventaja en tecnologías de visualización portátiles, tales como cascos de realidad virtual (HMD del inglés Head Mounted Display). Esta tesis se centra por tanto en nuevos enfoques de diseño de sistemas ópticos compactos para aplicaciones tanto de formación de imagen, como anidólicas. Los colimadores son uno de los diseños clásicos dentro la óptica anidólica, y se pueden utilizar en aplicaciones fotovoltaicas y de iluminación. Hay varios enfoques a la hora de diseñar estos colimadores. Los diseños convencionales tienen una relación de aspecto mayor que 0.5. Con el fin de reducir la altura del colimador manteniendo el área de iluminación, esta tesis presenta un diseño de un colimador multicanal. En óptica formadora de imagen, las superficies asféricas y las superficies sin simetría de revolución (o freeform) son de gran utilidad de cara al control de las aberraciones de la imagen y para reducir el número y tamaño de los elementos ópticos. Debido al rápido desarrollo de sistemas de computación digital, los trazados de rayos se pueden realizar de forma rápida y sencilla para evaluar el rendimiento del sistema óptico analizado. Esto ha llevado a los diseños ópticos modernos a ser generados mediante el uso de diferentes técnicas de optimización multi-paramétricas. Estas técnicas requieren un buen diseño inicial como punto de partida para el diseño final, que será obtenido tras un proceso de optimización. Este proceso precisa un método de diseño directo para superficies asféricas y freeform que den como resultado un diseño cercano al óptimo. Un método de diseño basado en ecuaciones diferenciales se presenta en esta tesis para obtener un diseño óptico formado por una superficie freeform y dos superficies asféricas. Esta tesis consta de cinco capítulos. En Capítulo 1, se presentan los conceptos básicos de la óptica formadora de imagen y de la óptica anidólica, y se introducen las técnicas clásicas del diseño de las mismas. El Capítulo 2 describe el diseño de un colimador ultra-compacto. La relación de aspecto ultra-baja de este colimador se logra mediante el uso de una estructura multicanal. Se presentará su procedimiento de diseño, así como un prototipo fabricado y la caracterización del mismo. El Capítulo 3 describe los conceptos principales de la optimización de los sistemas ópticos: función de mérito y método de mínimos cuadrados amortiguados. La importancia de un buen punto de partida se demuestra mediante la presentación de un mismo ejemplo visto a través de diferentes enfoques de diseño. El método de las ecuaciones diferenciales se presenta como una herramienta ideal para obtener un buen punto de partida para la solución final. Además, diferentes técnicas de interpolación y representación de superficies asféricas y freeform se presentan para el procedimiento de optimización. El Capítulo 4 describe la aplicación del método de las ecuaciones diferenciales para un diseño de un sistema óptico de una sola superficie freeform. Algunos conceptos básicos de geometría diferencial son presentados para una mejor comprensión de la derivación de las ecuaciones diferenciales parciales. También se presenta un procedimiento de solución numérica. La condición inicial está elegida como un grado de libertad adicional para controlar la superficie donde se forma la imagen. Basado en este enfoque, un diseño anastigmático se puede obtener fácilmente y se utiliza como punto de partida para un ejemplo de diseño de un HMD con una única superficie reflectante. Después de la optimización, dicho diseño muestra mejor rendimiento. El Capítulo 5 describe el método de las ecuaciones diferenciales ampliado para diseños de dos superficies asféricas. Para diseños ópticos de una superficie, ni la superficie de imagen ni la correspondencia entre puntos del objeto y la imagen pueden ser prescritas. Con esta superficie adicional, la superficie de la imagen se puede prescribir. Esto conduce a un conjunto de tres ecuaciones diferenciales ordinarias implícitas. La solución numérica se puede obtener a través de cualquier software de cálculo numérico. Dicho procedimiento también se explica en este capítulo. Este método de diseño da como resultado una lente anastigmática, que se comparará con una lente aplanática. El diseño anastigmático converge mucho más rápido en la optimización y la solución final muestra un mejor rendimiento. ABSTRACT We will consider optical design from two points of view: imaging optics and nonimaging optics. Imaging optics focuses on the imaging of the points of the object. Nonimaging optics arose from the development of concentrators and illuminators, focuses on the transfer of light energy, and has wide applications in illumination and concentration photovoltaics. In general, compact optical systems are necessary for both imaging and nonimaging designs. For nonimaging optical systems, compact optics use to be important for reducing cost. The reasons are twofold: (1) compact optics is small in volume, which means less material is needed for mass-production; (2) compact optics is small in size and light in weight, which saves cost in transportation. For imaging optical systems, in addition to the above advantages, compact optics increases portability of devices as well, which contributes a lot to wearable display technologies such as Head Mounted Displays (HMD). This thesis presents novel design approaches of compact optical systems for both imaging and nonimaging applications. Collimator is a typical application of nonimaging optics in illumination, and can be used in concentration photovoltaics as well due to the reciprocity of light. There are several approaches for collimator designs. In general, all of these approaches have an aperture diameter to collimator height not greater than 2. In order to reduce the height of the collimator while maintaining the illumination area, a multichannel design is presented in this thesis. In imaging optics, aspheric and freeform surfaces are useful in controlling image aberrations and reducing the number and size of optical elements. Due to the rapid development of digital computing systems, ray tracing can be easily performed to evaluate the performance of optical system. This has led to the modern optical designs created by using different multi-parametric optimization techniques. These techniques require a good initial design to be a starting point so that the final design after optimization procedure can reach the optimum solution. This requires a direct design method for aspheric and freeform surface close to the optimum. A differential equation based design method is presented in this thesis to obtain single freeform and double aspheric surfaces. The thesis comprises of five chapters. In Chapter 1, basic concepts of imaging and nonimaging optics are presented and typical design techniques are introduced. Readers can obtain an understanding for the following chapters. Chapter 2 describes the design of ultra-compact collimator. The ultra-low aspect ratio of this collimator is achieved by using a multichannel structure. Its design procedure is presented together with a prototype and its evaluation. The ultra-compactness of the device has been approved. Chapter 3 describes the main concepts of optimizing optical systems: merit function and Damped Least-Squares method. The importance of a good starting point is demonstrated by presenting an example through different design approaches. The differential equation method is introduced as an ideal tool to obtain a good starting point for the final solution. Additionally, different interpolation and representation techniques for aspheric and freeform surface are presented for optimization procedure. Chapter 4 describes the application of differential equation method in the design of single freeform surface optical system. Basic concepts of differential geometry are presented for understanding the derivation of partial differential equations. A numerical solution procedure is also presented. The initial condition is chosen as an additional freedom to control the image surface. Based on this approach, anastigmatic designs can be readily obtained and is used as starting point for a single reflective surface HMD design example. After optimization, the evaluation shows better MTF. Chapter 5 describes the differential equation method extended to double aspheric surface designs. For single optical surface designs, neither image surface nor the mapping from object to image can be prescribed. With one more surface added, the image surface can be prescribed. This leads to a set of three implicit ordinary differential equations. Numerical solution can be obtained by MATLAB and its procedure is also explained. An anastigmatic lens is derived from this design method and compared with an aplanatic lens. The anastigmatic design converges much faster in optimization and the final solution shows better performance.
Resumo:
El objetivo de la presente investigación consiste en estudiar el aprovechamiento solar para el calentamiento de los fangos en los digestores anaerobios mediante agua caliente circulando en el interior de un serpentín que rodea la superficie de dicho digestor, como alternativa a los métodos convencionales del calentamiento de fangos como la resistencia eléctrica o el intercambiador de calor mediante la energía obtenida por el gas metano producido en la digestión anaerobia. Se utilizaron 3 digestores, dos de los cuales se calentaron con agua caliente en el interior de un serpentín procedente de un sistema de calentamiento de agua con colectores solares planos (uno aislado mediante una capa de fibra de vidrio y poliuretano y otro sin aislar).El tercer digestor no tenía calentamiento exterior con el objetivo de observar su comportamiento y comparar su evolución con el resto de los digestores
Resumo:
El planteamiento tradicional de análisis de la accidentalidad en carretera pasa por la consideración de herramientas paliativas, como son la identificación y gestión de los puntos negros o tramos de concentración de accidentes, o preventivas, como las auditorías e inspecciones de seguridad vial. En esta tesis doctoral se presenta un planteamiento complementario a estas herramientas, desde una perspectiva novedosa: la consideración de los tramos donde no se producen accidentes; son los denominados Tramos Blancos. La tesis persigue demostrar que existen determinados parámetros del diseño de las carreteras y del tráfico que, bajo características generales similares de las vías, tienen influencia en el hecho de que se produzcan o no accidentes, adicionalmente a la exposición al riesgo, como factor principal, y a otros factores. La propia definición de los Tramos Blancos, entendidos como tramos de carreteras de longitud representativa donde no se han producido accidentes con víctimas mortales o heridos graves durante un periodo largo de tiempo, garantiza que esta situación no se produzca como consecuencia de la aleatoriedad de los accidentes, sino que pudiera deberse a una confluencia específica de determinados parámetros de la geometría de la vía y del tráfico total y de vehículos pesados. Para el desarrollo de esta investigación se han considerado la red de autopistas de peaje y las carreteras convencionales de la Red del Estado de España, que supone un total de 17.000 kilómetros, y los datos de accidentes con víctimas mortales y heridos graves en el periodo 2006-2010, ambos incluidos, en estas redes (un total de 10.000 accidentes). La red viaria objeto de análisis supone el 65% de la longitud de la Red de Carreteras del Estado, por la que circula el 33% de su tráfico; en ella se produjeron en el año 2013 el 47% de los accidentes con víctimas y el 60% de las víctimas mortales de la Red de Carreteras del Estado. Durante la investigación se ha desarrollado una base de datos de 250.130 registros y más de 3.5 millones de datos en el caso de las autopistas de peaje de la Red de Carreteras del Estado y de 935.402 registros y más de 14 millones de datos en el caso de la red convencional del Estado analizada. Tanto las autopistas de peaje como las carreteras convencionales han sido clasificadas según sus características de tráfico, de manera que se valoren vías con nivel de exposición al riesgo similar. Para cada tipología de vía, se ha definido como longitud de referencia para que un tramo se considere Tramo Blanco la longitud igual al percentil 95 de las longitudes de tramos sin accidentes con heridos graves o víctimas mortales durante el periodo 2006-2010. En el caso de las autopistas de peaje, en la tipología que ha sido considerada para la definición del modelo, esta longitud de referencia se estableció en 14.5 kilómetros, mientras que en el caso de las carreteras convencionales, se estableció en 7.75 kilómetros. Para cada uno de los tipos de vía considerados se han construido una base de datos en la que se han incluido las variables de existencia o no de Tramo Blanco, así como las variables de tráfico (intensidad media diaria total, intensidad de vehículos pesados y porcentaje de vehículos pesados ), la velocidad media y las variables de geometría (número de carriles, ancho de carril, ancho de arcén derecho e izquierdo, ancho de calzada y plataforma, radio, peralte, pendiente y visibilidad directa e inversa en los casos disponibles); como variables adicionales, se han incluido el número de accidentes con víctimas, los fallecidos y heridos graves, índices de peligrosidad, índices de mortalidad y exposición al riesgo. Los trabajos desarrollados para explicar la presencia de Tramos Blancos en la red de autopistas de peaje han permitido establecer las diferencias entre los valores medios de las variables de tráfico y diseño geométrico en Tramos Blancos respecto a tramos no blancos y comprobar que estas diferencias son significativas. Así mismo, se ha podido calibrar un modelo de regresión logística que explica parcialmente la existencia de Tramos Blancos, para rangos de tráfico inferiores a 10.000 vehículos diarios y para tráficos entre 10.000 y 15.000 vehículos diarios. Para el primer grupo (menos de 10.000 vehículos al día), las variables que han demostrado tener una mayor influencia en la existencia de Tramo Blanco son la velocidad media de circulación, el ancho de carril, el ancho de arcén izquierdo y el porcentaje de vehículos pesados. Para el segundo grupo (entre 10.000 y 15.000 vehículos al día), las variables independientes más influyentes en la existencia de Tramo Blanco han sido la velocidad de circulación, el ancho de calzada y el porcentaje de vehículos pesados. En el caso de las carreteras convencionales, los diferentes análisis realizados no han permitido identificar un modelo que consiga una buena clasificación de los Tramos Blancos. Aun así, se puede afirmar que los valores medios de las variables de intensidad de tráfico, radio, visibilidad, peralte y pendiente presentan diferencias significativas en los Tramos Blancos respecto a los no blancos, que varían en función de la intensidad de tráfico. Los resultados obtenidos deben considerarse como la conclusión de un análisis preliminar, dado que existen otros parámetros, tanto de diseño de la vía como de la circulación, el entorno, el factor humano o el vehículo que podrían tener una influencia en el hecho que se analiza, y no se han considerado por no disponer de esta información. En esta misma línea, el análisis de las circunstancias que rodean al viaje que el usuario de la vía realiza, su tipología y motivación es una fuente de información de interés de la que no se tienen datos y que permitiría mejorar el análisis de accidentalidad en general, y en particular el de esta investigación. Adicionalmente, se reconocen limitaciones en el desarrollo de esta investigación, en las que sería preciso profundizar en el futuro, reconociendo así nuevas líneas de investigación de interés. The traditional approach to road accidents analysis has been based in the use of palliative tools, such as black spot (or road sections) identification and management, or preventive tools, such as road safety audits and inspections. This thesis shows a complementary approach to the existing tools, from a new perspective: the consideration of road sections where no accidents have occurred; these are the so-called White Road Sections. The aim of this thesis is to show that there are certain design parameters and traffic characteristics which, under similar circumstances for roads, have influence in the fact that accidents occur, in addition to the main factor, which is the risk exposure, and others. White Road Sections, defined as road sections of a representative length, where no fatal accidents or accidents involving serious injured have happened during a long period of time, should not be a product of randomness of accidents; on the contrary, they might be the consequence of a confluence of specific parameters of road geometry, traffic volumes and heavy vehicles traffic volumes. For this research, the toll motorway network and single-carriageway network of the Spanish National Road Network have been considered, which is a total of 17.000 kilometers; fatal accidents and those involving serious injured from the period 2006-2010 have been considered (a total number of 10.000 accidents). The road network covered means 65% of the total length of the National Road Network, which allocates 33% of traffic volume; 47% of accidents with victims and 60% of fatalities happened in these road networks during 2013. During the research, a database of 250.130 registers and more than 3.5 million data for toll motorways and 935.042 registers and more than 14 million data for single carriageways of the National Road Network was developed. Both toll motorways and single-carriageways have been classified according to their traffic characteristics, so that the analysis is performed over roads with similar risk exposure. For each road type, a reference length for White Road Section has been defined, as the 95 percentile of all road sections lengths without accidents (with fatalities or serious injured) for 2006-2010. For toll motorways, this reference length concluded to be 14.5 kilometers, while for single-carriageways, it was defined as 7.75 kilometers. A detailed database was developed for each type of road, including the variable “existence of White Road Section”, as well as variables of traffic (average daily traffic volume, heavy vehicles average daily traffic and percentage of heavy vehicles from the total traffic volume), average speed and geometry variables (number of lanes, width of lane, width of shoulders, carriageway width, platform width, radius, superelevation, slope and visibility); additional variables, such as number of accidents with victims, number of fatalities or serious injured, risk and fatality rates and risk exposure, have also been included. Research conducted for the explanation of the presence of White Road Sections in the toll motorway network have shown statistically significant differences in the average values of variables of traffic and geometric design in White Road Sections compared with other road sections. In addition, a binary logistic model for the partial explanation of the presence of White Road Sections was developed, for traffic volumes lower than 10.000 daily vehicles and for those running from 10.000 to 15.000 daily vehicles. For the first group, the most influent variables for the presence of White Road Sections were the average speed, width of lane, width of left shoulder and percentage of heavy vehicles. For the second group, the most influent variables were found to be average speed, carriageway width and percentage of heavy vehicles. For single-carriageways, the different analysis developed did not reach a proper model for the explanation of White Road Sections. However, it can be assumed that the average values of the variables of traffic volume, radius, visibility, superelevation and slope show significant differences in White Road Sections if compared with others, which also vary with traffic volumes. Results obtained should be considered as a conclusion of a preliminary analysis, as there are other parameters, not only design-related, but also regarding traffic, environment, human factor and vehicle which could have an influence in the fact under research, but this information has not been considered in the analysis, as it was not available. In parallel, the analysis of the circumstances around the trip, including its typology and motivation is an interesting source of information, from which data are not available; the availability of this information would be useful for the improvement of accident analysis, in general, and for this research work, in particular. In addition, there are some limitations in the development of the research work; it would be necessary to develop an in-depth analysis in the future, thus assuming new research lines of interest.
Resumo:
Las enfermedades arteriales vienen presididas por la aterosclerosis, que es un proceso crónico de degeneración, que evoluciona hacia la obstrucción de la luz arterial. La pared de la arteria se engrosa debido al depósito de elementos grasos tales como el colesterol. Los stents intraluminales son diminutas estructuras tubulares autoexpandibles de malla de metal, que se colocan dentro de la arteria coronaria después de una angioplastia con balón para prevenir el cierre de dicha arteria. A pesar de estar diseñados para ser compatibles con el tejido humano, a menudo se da una reacción en cadena de consecuencias indeseables. La reestenosis intra-stent es un problema creciente debido al importante incremento que se ha producido en la utilización del stent intracoronario como forma de revascularización percutánea. Se habla de una incidencia global del 28%, siendo la causa principal de su aparición la proliferación neointimal a través de una compleja cascada de sucesos que pueden tardar meses en desarrollarse. Una de las reacciones más importantes es la trombosis o la formación de una fina capa de coágulo como respuesta a la presencia de un material extraño. Este proceso es multifactorial, y en él intervienen la regresión de la pared como consecuencia del estiramiento previo, la denudación endotelial, lo que permite la agregación plaquetaria, la proliferación neointimal, lo que facilita a los receptores de membrana desencadenar un proceso de agregación posterior y, por último, el remodelado negativo inadecuado de la pared, lo que produce pérdida de luz arterial. Se ha observado frecuentemente que el depósito de ateroma en la pared arterial está relacionado con el valor de los esfuerzos cortantes en la misma. Hay mayores probabilidades de engrosamiento de la pared en las zonas donde son bajos los esfuerzos cortantes, quizá por el mayor tiempo de residencia de las partículas circulantes por el torrente sanguíneo. Si nos centramos en la afirmación anterior, el siguiente paso sería buscar las zonas susceptibles de presentar un valor bajo de dichos esfuerzos. Las zonas potencialmente peligrosas son los codos y bifurcaciones, entre otras. Nos hemos centrado en una bifurcación coronaria, ya que los patrones de flujo que se suelen presentar, tales como recirculación y desprendimiento de vórtices están íntimamente relacionados con las técnicas de implantación de stents en esta zona. Proyectamos nuestros esfuerzos en el estudio de dos técnicas de implante, utilizando un único stent y una tercera a través de una configuración de culotte con el uso de dos stents. El primer caso trata de una bifurcación con un único stent en la rama principal cuyos struts cierran el orificio lateral que da salida a la rama secundaria de la bifurcación, es decir sería un stent sin orificio. El segundo consiste en un único stent también, pero con la diferencia de que éste presenta un orificio de comunicación con la rama lateral. Todas estas técnicas se aplicaron a bifurcaciones de 45º y de 90º. Introdujimos las geometrías -una vez confeccionadas con el código comercial Gambit- en el programa Ansys-Fluent contemplando régimen estacionario. Los resultados obtenidos fueron cotejados con los experimentales, que se realizaron paralelamente, con el fin de corroborarlos. Una vez validados, el estudio computacional ya contó con la fiabilidad suficiente como para abordar el régimen no estacionario, tanto en la versión de reposo como en la de ejercicio –hiperemia- El comportamiento reológico de la sangre para régimen no estacionario en estado de reposo es otra de las tareas abordadas, realizando una comparativa de los modelos Newtoniano, Carreau y Ley de Potencias. Finalmente, en una última etapa, debido a la reciente incursión de los stents diseñados específicamente frente a los convencionales, se aborda el comportamiento hemodinámico de los mismos. Concretamente, se comparó el patrón de flujo en un modelo de bifurcación coronaria con los nuevos stents (Stentys) y los convencionales. Se estudiaron cuatro modelos, a saber, stent simple en la rama principal, stent simple en la rama secundaria, culotte desplegando el primer stent en la rama principal y culotte desplegando el primer stent en la rama secundaria. La bifurcación estudiada presenta un ángulo de apertura de 45º y la relación de diámetros de las ramas hija se ajustaron de acuerdo a la ley de Finet. Se recogieron resultados experimentales en el laboratorio y se corrieron simulaciones numéricas con Ansys Fluent paralelamente. Las magnitudes que se tuvieron en cuenta con el fin de ubicar las regiones potencialmente ateroscleróticas fueron los esfuerzos cortantes, vorticidad y caída de presión. ABSTRACT Nowadays, restenosis after percutaneous dilation is the major drawback of coronary angioplasty. It represents a special form of atherosclerosis due to the healing process secondary to extensive vessel trauma induced after intracoronary balloon inflation. The use of coronary stents may decrease the incidence of this phenomenon. Unfortunately, intra-stent restenosis still occurs in 20-30% of the cases following the stent implantation. Most experiments suggest a correlation between low wall shear stress and wall thickness. The preferential locations for the atherosclerotic plaque are bifurcations. The objective of this work is to analyze the local hemodynamic changes caused in a coronary bifurcation by three different stenting techniques: simple stenting of the main vessel, simple stenting of the main vessel with kissing balloon in the side branch and culotte. To carry out this study an idealized geometry of a coronary bifurcation is used, and two bifurcation angles, 45º and 90º, are chosen as representative of the wide variety of real configurations. Both numerical simulations and experimental measurements are performed. First, steady simulations are carried out with the commercial code Ansys-Fluent, then, experimental measurements with PIV (Particle Image Velocimetry), obtained in the laboratory, are used to validate the numerical simulations. The steady computational simulations show a good overall agreement with the experimental data. Then, pulsatile flow is considered to take into account the transient effects. The time averaged wall shear stress, oscillatory shear index and pressure drop obtained numerically are used to compare the behavior of the stenting techniques. In a second step, the rheologic behavior of blood was considered comparing Newtonian, Carreau and Power Law models. Finally, as a result of previous investigations with conventional stents and after the recent emergence of several devices specifically designed for coronary bifurcations angioplasty, the hemodynamic performance of these new devices (Stentys) was compared to conventional ones and techniques in a coronary bifurcation model. Four different stenting techniques: simple stenting of the main vessel, simple stenting of the side vessel, culotte deploying the first stent in the main vessel and culotte deploying the first stent in the side vessel have been considered. To carry out this study an idealized geometry of a coronary bifurcation is used. A 45 degrees bifurcation angle is considered and the daughter branches diameters are obtained according to the Finet law. Both experiments in the laboratory and numerical simulations were used , focusing on important factors for the atherosclerosis development, like the wall shear stress, the oscillation shear index, the pressure loss and the vorticity.
Optimización de cimentaciones directas de medianería y esquina mediante modelos de elementos finitos
Resumo:
Existe un amplio catálogo de posibles soluciones para resolver la problemática de las zapatas de medianería así como, por extensión, las zapatas de esquina como caso particular de las anteriores. De ellas, las más habitualmente empleadas en estructuras de edificación son, por un lado, la utilización de una viga centradora que conecta la zapata de medianería con la zapata del pilar interior más próximo y, por otro, la colaboración de la viga de la primera planta trabajando como tirante. En la primera solución planteada, el equilibrio de la zapata de medianería y el centrado de la respuesta del terreno se consigue gracias a la colaboración del pilar interior con su cimentación y al trabajo a flexión de la viga centradora. La modelización clásica considera que se logra un centrado total de la reacción del terreno, con distribución uniforme de las tensiones de contacto bajo ambas zapatas. Este planteamiento presupone, por tanto, que la viga centradora logra evitar cualquier giro de la zapata de medianería y que el pilar puede, por ello, considerarse perfectamente empotrado en la cimentación. En este primer modelo, el protagonismo fundamental recae en la viga centradora, cuyo trabajo a flexión conduce frecuentemente a unas escuadrías y a unas cuantías de armado considerables. La segunda solución, plantea la colaboración de la viga de la primera planta, trabajando como tirante. De nuevo, los métodos convencionales suponen un éxito total en el mecanismo estabilizador del tirante, que logra evitar cualquier giro de la zapata de medianería, dando lugar a una distribución de tensiones también uniforme. Los modelos convencionales existentes para el cálculo de este tipo de cimentaciones presentan, por tanto, una serie de simplificaciones que permiten el cálculo de las mismas, por medios manuales, en un tiempo razonable, pero presentan el inconveniente de su posible alejamiento del comportamiento real de la cimentación, con las consecuencias negativas que ello puede suponer en el dimensionamiento de estos elementos estructurales. La presente tesis doctoral desarrolla un contraste de los modelos convencionales de cálculo de cimentaciones de medianería y esquina, mediante un análisis alternativo con modelos de elementos finitos, con el objetivo de poner de manifiesto las diferencias entre los resultados obtenidos con ambos tipos de modelización, analizar cuáles son las variables que más influyen en el comportamiento real de este tipo de cimentaciones y proponer un nuevo modelo de cálculo, de tipo convencional, más ajustado a la realidad. El proceso de investigación se desarrolla mediante una etapa experimental virtual que utiliza como modelo un pórtico tipo de edificación, ortogonal, de hormigón armado, con dos vanos y número variable de plantas. Tras identificar el posible giro de la cimentación como elemento clave en el comportamiento de las zapatas de medianería y de esquina, se adoptan como variables de estudio aquellas que mayor influencia puedan tener sobre el citado giro de las zapatas y sobre la rigidez del conjunto del elemento estructural. Así, se han estudiado luces de 3 m a 7 m, diferente número de plantas desde baja+1 hasta baja+4, resistencias del terreno desde 100 kN/m2 hasta 300 kN/m2, relaciones de forma de la zapata de medianería de 1,5 : 1 y 2 : 1, aumento y reducción de la cuantía de armado de la viga centradora y variación del canto de la viga centradora desde el mínimo canto compatible con el anclaje de la armadura de los pilares hasta un incremento del 75% respecto del citado canto mínimo. El conjunto de pórticos generados al aplicar las variables indicadas, se ha calculado tanto por métodos convencionales como por el método de los elementos finitos. Los resultados obtenidos ponen de manifiesto importantes discrepancias entre ambos métodos que conducen a importantes diferencias en el dimensionamiento de este tipo de cimentaciones. El empleo de los métodos tradicionales da lugar, por un lado, a un sobredimensionamiento de la armadura de la viga centradora y, por otro, a un infradimensionamiento, tanto del canto de la viga centradora, como del tamaño de la zapata de medianería y del armado de la viga de la primera planta. Finalizado el análisis y discusión de resultados, la tesis propone un nuevo método alternativo, de carácter convencional y, por tanto, aplicable a un cálculo manual en un tiempo razonable, que permite obtener los parámetros clave que regulan el comportamiento de las zapatas de medianería y esquina, conduciendo a un dimensionamiento más ajustado a las necesidades reales de este tipo de cimentación. There is a wide catalogue of possible solutions to solve the problem of party shoes and, by extension, corner shoes as a special case of the above. From all of them, the most commonly used in building structures are, on one hand, the use of a centering beam that connects the party shoe with the shoe of the nearest interior pillar and, on the other hand, the collaboration of the beam of the first floor working as a tie rod. In the first proposed solution, the balance of the party shoe and the centering of the ground response is achieved thanks to the collaboration of the interior pillar with his foundation along with the bending work of the centering beam. Classical modeling considers that a whole centering of the ground reaction is achieved, with uniform contact stress distribution under both shoes. This approach to the issue presupposes that the centering beam manages to avoid any rotation of the party shoe, so the pillar can be considered perfectly embedded in the foundation. In this first model, the leading role lies in the centering beam, whose bending work usually leads to important section sizes and high amounts of reinforced. The second solution, consideres the collaboration of the beam of the first floor, working as tie rod. Again, conventional methods involve a total success in the stabilizing mechanism of the tie rod, that manages to avoid any rotation of the party shoe, resulting in a stress distribution also uniform. Existing conventional models for calculating such foundations show, therefore, a series of simplifications which allow calculation of the same, by manual means, in a reasonable time, but have the disadvantage of the possible distance from the real behavior of the foundation, with the negative consequences this could bring in the dimensioning of these structural elements. The present thesis develops a contrast of conventional models of calculation of party and corner foundations by an alternative analysis with finite element models with the aim of bring to light the differences between the results obtained with both types of modeling, analysis which are the variables that influence the real behavior of this type of foundations and propose a new calculation model, conventional type, more adjusted to reality. The research process is developed through a virtual experimental stage using as a model a typical building frame, orthogonal, made of reinforced concrete, with two openings and variable number of floors. After identifying the possible spin of the foundation as the key element in the behavior of the party and corner shoes, it has been adopted as study variables, those that may have greater influence on the spin of the shoes and on the rigidity of the whole structural element. So, it have been studied lights from 3 m to 7 m, different number of floors from lower floor + 1 to lower floor + 4, máximum ground stresses from 100 kN/m2 300 kN/m2, shape relationships of party shoe 1,5:1 and 2:1, increase and decrease of the amount of reinforced of the centering beam and variation of the height of the centering beam from the minimum compatible with the anchoring of the reinforcement of pillars to an increase of 75% from the minimum quoted height. The set of frames generated by applying the indicated variables, is calculated both by conventional methods such as by the finite element method. The results show significant discrepancies between the two methods that lead to significant differences in the dimensioning of this type of foundation. The use of traditional methods results, on one hand, to an overdimensioning of the reinforced of the centering beam and, on the other hand, to an underdimensioning, both the height of the centering beam, such as the size of the party shoe and the reinforced of the beam of the first floor. After the analysis and discussion of results, the thesis proposes a new alternative method, conventional type and, therefore, applicable to a manual calculation in a reasonable time, that allows to obtain the key parameters that govern the behavior of party and corner shoes, leading to a dimensioning more adjusted to the real needings of this type of foundation.
Resumo:
La presente tesis tiene por finalidad contribuir al conocimiento de los procesos de transformación de las ciudades convencionales en Ciudades Inteligentes o Smart Cities, el nuevo paradigma urbano, que surge como consecuencia de la utilización de las Tecnologías de la Información y de las Comunicaciones, las TIC, para mejorar la calidad de vida de las personas y aumentar la eficiencia y eficacia de los procesos, servicios e infraestructuras de la ciudad. El proceso de urbanización de la población mundial constituye una de las principales tendencias globales. Los retos a los que se enfrentan las urbes actuales para satisfacer las necesidades de sus habitantes, así como la forma en que cada ciudad aborda dichos retos, propician el desarrollo de estudios comparativos y rankings de ciudades. La oportunidad para llevar a cabo esta tesis deriva de: La novedad del concepto de Ciudad Inteligente. La necesidad de establecer estudios comparativos, respecto a dicho concepto, entre ciudades con características socioeconómicas y culturales comunes, dado que la mayoría de los estudios y rankings se desarrollan para conjuntos de ciudades cuyas características son muy dispares, pues, en general son seleccionadas por su condición de capitales de estados o de centros económicos-financieros. El interés de disponer de estudios sobre ciudades con tamaños de población medianos, inferiores al millón de habitantes, las cuales tienen baja presencia en los estudios comparativos. La inexistencia de estudios comparativos entre las ciudades españolas, en relación con el concepto de Ciudad Inteligente. La existencia de la Red Española de Ciudades Inteligentes, que permite disponer de una muestra de ciudades adecuada, para llevar a cabo un estudio comparativo de acuerdo con los puntos anteriores. El objetivo general de la presente tesis es contribuir al conocimiento de los procesos de transformación de la ciudad convencional en Ciudad Inteligente, a través de la formulación y aplicación de un modelo de evaluación, basado en el concepto holístico de Ciudad Inteligente o Smart City y desde la perspectiva del ciudadano. La metodología de trabajo seguida comprende, en primer lugar, la revisión del estado del arte, centrada en tres aspectos: la evolución del concepto Smart City, los estudios comparativos sobre Ciudades Inteligentes y las medidas que las ciudades españolas están implantando en la práctica para llevar a cabo su transformación en Ciudades Inteligentes. A continuación se lleva a cabo el diseño el modelo de evaluación. Este modelo refleja el carácter holístico del concepto de Ciudad Inteligente, para lo cual, de acuerdo con las definiciones que encontramos en la literatura, evalúa la situación de cada ciudad en relación con seis ejes o pilares, comúnmente aceptados por los diferentes autores: e-Gobierno y e-Gobernanza, Movilidad, Sostenibilidad Ambiental, Desarrollo Económico, Capital Intelectual y Calidad de Vida. El trabajo desarrollado implica un análisis, que se desarrolla de forma ordenada para cada uno de los ejes y, dentro de éstos, para sus correspondientes factores. En total se analizan 18 factores. Para cada uno de los ejes se lleva a cabo una revisión de las iniciativas más representativas para, a continuación, analizar y evaluar los correspondientes los factores. De forma complementaria al desarrollo del trabajo, se llevó a cabo una encuesta, dirigida a profesionales de diferentes áreas y sectores, todos ellos en el ámbito de las Ciudades Inteligentes. El objetivo de la encuesta es conocer, de acuerdo con la opinión de los profesionales, la situación actual en materia de despliegue de Ciudades Inteligentes, las actuaciones que consideran de mayor interés para la ciudad y las barreras del proceso de cambio. Una vez definido el modelo, se ha aplicado a las 62 ciudades que forman la Red Española de Ciudades Inteligentes (RECI), valorando los factores y los ejes para cada una de ellas. Así mismo, se ha analizado la influencia de las tres variables siguientes: tamaño de población, densidad de población y presupuesto municipal por habitante, determinando la relación entre el porcentaje de ciudades inteligentes de la muestra, en cada factor. Adicionalmente en el eje Capital Intelectual,se analizó la influencia del porcentaje de habitantes con estudios superiores. Las 62 ciudades RECI que componen la muestra evaluada, representan el 43 % de las ciudades españolas que cuentan con poblaciones superiores a los 50.000 habitantes. La población que abarca la muestra de ciudades estudiada representa el 35% de la población española. Finalmente, se ha determinado el ranking con las ciudades de RECI, de acuerdo con el modelo diseñado. Así mismo se ha llevado a cabo el análisis de sensibilidad, determinado el ranking resultante para la misma muestra de ciudades, aplicando la ponderación de los factores. Las principales aportaciones de la tesis son: Desarrollar un modelo de evaluación de ciudades basada en el concepto holístico de la Smart City y desde la perspectiva del ciudadano. Desarrollar una metodología de trabajo fundamentada en el análisis sistematizado de las web municipales, como medio para conocer la situación de las ciudades, en lugar de los datos estadísticos publicados, que son la fuente de información habitualmente empleada en los estudios comparativos. Disponer de un estudio comparativo específico de ciudades españolas. Llevar a cabo un estudio sobre una muestra de ciudades de tamaño medio, con características socioeconómicas y culturales comparables. Mejorar el conocimiento de los procesos que se están llevando a cabo en ciudades con poblaciones inferiores al millón de habitantes. The purpose of this thesis is to contribute to the knowledge of the cities and the transformation that is taking part in traditional cities becoming Smart Cities. The Smart City concept is the new urban paradigm that is born from the extensive use of Information Technologies (IT) in order to accomplish better citizen’s quality of life as well as improvements in urban processes, services and infrastructures. Several rankings and benchmarking studies are being conducted globally, in response to the increasing of urban population that is taking part around the world and the subsequent challenges to be confronted by the cities. This thesis aims to contribute to these studies. The opportunity for this thesis comes from: The Smart City concept as a new concept. The need of benchmarking studies focused on the Smart City concept, carried on cities with similar social and economic characteristics. The interest on benchmarking studies on medium size cities (with less than one million inhabitants). The absence of benchmarking studies on Spanish cities. The existence of the Spanish Smart Cities Network that can be considered an appropriate sample for a benchmark study. The main goal of this thesis is to develop a Smart Cities assessment model based on the citizen point of view and taking into account a holistic concept of Smart City. The thesis methodology starts with the state of the art revision, focused on three items: the Smart City concept, the benchmark studies and the projects actually developed by the Spanish cities under processes for becoming Smart Cities. The next step is the assessment model design, in accordance with the six main axes or pillars referred in the academic literature: e-Government and e-Governance, Mobility, Environmental Sustainability, Economic Development, Smart Citizens and Quality of Life. Also, a survey has been conducted and addressed to experts working on the different areas related to the Smart Cities. The aim of this survey is to know their opinion about the deployment of the Smart Cities, the priorities considered by the cities and the barriers that delay the change processes. Once the assessment model was ready, it was applied to the Spanish Smart Cities Network, with 62 member cities. Also, the bearing of three variables: city population, population density and city budget per inhabitant, are studied. The 62 cities studied are 43 % of the Spanish cities with population over 50.000 inhabitants. The population living in these cities is the 35% of total Spanish population. The main contribution of this thesis are: An assessment model for Smart Cities that takes into account the holistic concept of the Smart City as well as the citizen experience. A methodology that comprises municipal web analysis instead of statistics data, which are the usual source of data for current benchmarking studies. A Spanish Smart Cities benchmark. A benchmark on medium size cities with similar social and economic characteristics. A better understanding of the urban processes that are taking part on cities under one million inhabitants.
Resumo:
En éste trabajo se ofrece la realización de una célula elemental programable ópticamente, capaz de realizar hasta siete operaciones lógicas, constituyendo catorce pares de salida. El principio innovador de la célula, es el uso de fibras ópticas multimodo, enlazadas mediante acopladores convencionales de COs, a 1,3 fim. Como fuentes de radiación óptica se han empleado LEDs de bajo costo, constituyendo esto una nueva ventaja sobre otras células presentadas en la literatura del tema.
Resumo:
La caracterización de módulos fotovoltaicos proporciona las especificaciones eléctricas que se necesitan para conocer los niveles de eficiencia energética que posee un módulo fotovoltaico de concentración. Esta caracterización se consigue a través de medidas de curvas IV, de igual manera que se obtienen para caracterizar los módulos convencionales. Este proyecto se ha realizado para la optimización y ampliación de un programa de medida y caracterización de hasta cuatro módulos fotovoltaicos que se encuentran en el exterior, sobre un seguidor. El programa, desarrollado en LabVIEW, opera sobre el sistema de medida, obteniendo los datos de caracterización del módulo que se está midiendo. Para ello en primer lugar se ha tomado como base una aplicación ya implementada y se ha analizado su funcionamiento para poder optimizarla y ampliarla para introducir nuevas prestaciones. La nueva prestación más relevante para la medida de los módulos, busca evitar que el módulo entre medida y medida, se encuentre disipando toda la energía que absorbe y se esté calentando. Esto se ha conseguido introduciendo una carga electrónica dentro del sistema de medida, que mantenga polarizado el módulo siempre y cuando, no se esté produciendo una medida sobre él. En este documento se describen los dispositivos que forman todo el sistema de medida, así como también se describe el software del programa. Además, se incluye un manual de usuario para un fácil manejo del programa. ABSTRACT. The aim of the characterization of concentrator photovoltaic modules (CPV) is to provide the electrical specifications to know the energy efficiency at operating conditions. This characterization is achieved through IV curves measures, the same way that they are obtained to characterize conventional silicon modules. The objective of this project is the optimization and improvement of a measurement and characterization system for CPV modules. A software has been developed in LabVIEW for the operation of the measurement system and data acquisition of the IV curves of the modules. At first, an already deployed application was taken as the basis and its operation was analyzed in order to optimize and extend to introduce new features. The more relevant update seeks to prevent the situation in which the module is dissipating all the energy between measurements. This has been achieved by introducing an electronic load into the measuring system. This load maintains the module biased at its maximum power point between measurement periods. This work describes the devices that take part in the measurement system, as well as the software program developed. In addition, a user manual is included for an easy handling of the program.
Resumo:
La energía fotovoltaica se va a convertir en una de las principales fuentes de electricidad del mundo en el futuro próximo. La reciente aprobación del Código técnico de la edificación, donde se fomenta su integración en determinados edificios nuevos, lo avala. Sin embargo, a la hora de llevar la implantación de esta energía a los proyectos, por parte de los arquitectos, no está tan lograda desde el punto de vista arquitectónico. Se encuentran con el reto añadido de tener que introducirlos en el diseño del proyecto sin conocer bien las posibilidades que presenta. Por tanto, se plantea la necesidad de facilitar herramientas de apoyo con el fin de orientar a los arquitectos. El propósito de esta investigación es dar a conocer los principios básicos de la energía solar fotovoltaica así como de las posibles estrategias concretas de integración arquitectónica, desde las convencionales hasta las más novedosas. Con el objetivo de acercarla más si cabe a los arquitectos y potenciar la versatilidad que tiene este tipo de energía a la hora de diseñar, logrando beneficios añadidos para el edificio y sus usuarios más allá de la mera producción de energía limpia. El planteamiento consiste pues en considerar los módulos fotovoltaicos desde un punto de vista tectónico, como un nuevo material de construcción.
Resumo:
El objetivo de esta tesis es el diseño de una metodología que permita una valoración objetiva del funcionamiento o de la posible puesta en servicio de una vía de alta ocupación en un corredor congestionado. Las vías de alta ocupación surgen en Estados Unidos en la década de los 60 y no ha sido hasta muy entrada la década de los 90, cuando se ha pensado que estas vías de alta ocupación podían ser una solución a los problemas de congestión en el entorno europeo. La experiencia que se hereda de los casos americanos es importante, pero está inmersa en un marco con características sensiblemente diferentes a las europeas. Es por ello, que la primera labor que se ha realizado en esta tesis es la elaboración del marco conceptual y teórico adecuado, necesario para el correcto planteamiento de una metodología de evaluación. La revisión y el análisis, tanto de los planes de evaluación existentes, como de las propuestas desarrolladas en la literatura, unido a la clarificación del marco conceptual inherente a las vías de alta ocupación, ponen de relieve la necesidad de completar la práctica existente con herramientas que permitan cuantificar y valorar de manera adecuada, el funcionamiento o la puesta en servicio de una vía de alta ocupación. Sabiendo que el objetivo fundamental de una vía de alta ocupación es la reducción del número de usuarios del vehículo privado con un solo ocupante a modos de alta ocupación, y que este objetivo tiene necesariamente que estar en consonancia con las directrices de la actual política europea de transportes, se propone una metodología de cuatro fases que complementa a la práctica habitual y que la adapta al contexto europeo (sin olvidar que ya existe una labor previa en este aspecto, debido a la puesta en servicio de la vía de alta ocupación de la carretera N-VI de Madrid). Los objetivos de la metodología propuesta se centran en el estudio de la redistribución modal que debe producir la vía de alta ocupación desde el vehículo privado con un solo ocupante hacia los modos de alta ocupación (modos compartidos y transporte público), haciendo especial hincapié en las características necesariamente diferentes de los modos compartidos. El método de evaluación propuesto se articula en cuatro fases y se centra en la obtención (por medio de las tres primeras fases) de tres parámetros que van a regir la valoración positiva de la vía: el cambio modal neto (CMN), la estabilidad temporal del cambio (ETC) y las condiciones de operación en las vías convencionales (COV). El CMN indica si la vía de alta ocupación ha contribuído a la formación de los modos compartidos, el ETC indica si esta formación es una relación causal y el COV indica si se ha producido una contribución positiva al logro de una movilidad sostenible. Las posibles combinaciones derivadas de los valores de estos parámetros proporcionan a la Administración responsable una valoración objetiva de la vía de alta ocupación. El método de evaluación propone también, en función de estas combinaciones, las medidas más adecuadas a adoptar, bien para el logro de una mejora en las condiciones existentes, bien para el mantenimiento de las mismas. La aplicación práctica de esta metodología al caso de la vía de alta ocupación de la carretera N-VI, demuestra la validez, tanto de la metodología propuesta como de los parámetros que la sustentan. No obstante, se identifican una serie de limitaciones y consideraciones a matizar y que dan a pie a futuras líneas de investigación.
Resumo:
El diagnóstico y detección temprana de enfermedades son clave para reducir la tasa de mortalidad, las hospitalizaciones de larga duración y el desaprovechamiento de recursos. En los últimos años se ha impulsado, mediante un aumento de la financiación, el desarrollo de nuevos biosensores de bajo coste capaces de detectar y cuantificar cantidades muy pequeñas de especies biológicas de una forma barata y sencilla. El trabajo presentado en esta Tesis Doctoral describe la investigación llevada a cabo en el desarrollo de sensores gravimétricos basados en resonadores de ondas acústicas de volumen (BAW) de estructura maciza (SMR). Los dispositivos emplean películas delgadas de A1N como material piezoeléctrico y operan en modo de cizalladura, para así poder detectar especies biológicas en medio líquido. El principio de funcionamiento de estos sensores se basa en la variación que experimenta la frecuencia de resonancia al quedar una pequeña masa adherida a su superficie. Necesitan operar en modo de cizalladura para que su resonancia no se atenúe al trabajar en medio líquido, así como ofrecer una superficie capaz de ser funcionalizada específicamente para la especie biológica a detectar. El reto planteado en esta tesis requiere un acercamiento pluridisciplinar al problema que incluye el estudio de los diferentes materiales que constituyen la estructura multicapa que forma un SMR, el diseño y fabricación del dispositivo y del sistema de fluídica, la funcionalización bioquímica de la superficie del sensor, la demostración de la capacidad de detección de especies biológicas y finalmente el diseño y fabricación de la electrónica asociada para la detección de la señal eléctrica. Todas esas tareas han sido abordadas en las distintas etapas del desarrollo de esta tesis y las contribuciones más relevantes se describen en el documento. En el campo de desarrollo de los materiales, se propone un proceso en dos etapas para la pulverización reactiva de capas de A1N que contengan microcristales inclinados capaces de excitar el modo de cizalladura. Se caracteriza la velocidad acústica del modo de cizalladura en todos los materiales que componen la estructura, con el fin de poder obtener un diseño más adecuado del reflector acústico. Se propone un nuevo tipo de material aislante de alta impedancia acústica consistente en capas de W03 pulverizadas que presenta ciertas ventajas tecnológicas frente a las capas convencionales de Ta205. Respecto del diseño del transductor, se estudia la influencia que tienen los con tactos eléctricos extendidos del resonador necesarios para poder adaptar el sistema de fluídica a la estructura. Los resultados indican que es necesario trabajar sobre sustratos aislantes (tanto el soporte como el espejo acústico) para evitar efectos parásitos asociados al uso de capas metálicas bajo los electrodos del resonador que dañan su resonancia. Se analiza la influencia de las diferentes capas del dispositivo en el coeficiente de temperatura de la frecuencia (TCF) del resonador llegando a la conclusión de que las dos últimas capas del reflector acústico afectan significativamente al TCF del SMR, pudiendo reducirse ajusfando adecuadamente sus espesores. De acuerdo con los resultados de estos estudios, se han diseñado finalmente resonadores SMR operando a f .3 GHz en modo de cizalladura, con un área activa de 65000 /xm2, contactos eléctricos que se extienden f .7 mm y factores de calidad en líquido de f 50. Las extensiones eléctricas permiten adaptar el resonador a un sistema de fluídica de metacrilato. Para la detección de especies biológicas se realiza un montaje experimental que permite circular 800 ¡A por la superficie del sensor a través de un circuito cerrado que trabaja a volumen constante. La circulación de soluciones iónicas sobre el sensor descubierto pone de manifiesto que las altas frecuencias de operación previenen los cortocircuitos y por tanto el aislamiento de los electrodos es prescindible. Se desarrolla un protocolo ad-hoc de funcionalización basado en el proceso estándar APTESGlutaraldehído. Se proponen dos alternativas novedosas para la funcionalización de las áreas activas del sensor basadas en el uso de capas de oxidación de Ir02 y su activación a través de un plasma de oxígeno que no daña al dispositivo. Ambos procesos contribuyen a simplificar notablemente la funcionalización de los sensores gravimétricos. Se utilizan anticuerpos y aptámeros como receptores para detectar trombina, anticuerpo monoclonal IgG de ratón y bacteria sonicadas. Una calibración preliminar del sensor con depósitos de capas finas de Si02 de densidad y espesor conocidos permite obtener una sensibilidad de 1800 kHz/pg-cm2 y un límite de detección of 4.2 pg. Finalmente se propone el prototipo de un circuito electrónico de excitación y lectura de bajo coste diseñado empleando teoría de circuitos de microondas. Aunque su diseño y funcionamiento admite mejoras, constituye la última etapa de un sistema completo de bajo coste para el diagnóstico de especies biológicas basado en resonadores SMR de A1N. ABSTRACT Early diagnosis and detection of diseases are essential for reducing mortality rate and preventing long-term hospitalization and waste of resources. These requirements have boosted the efforts and funding on the research of accurate and reliable means for detection and quantification of biological species, also known as biosensors. The work presented in this thesis describes the development and fabrication of gravimetric biosensors based on piezoelectric AlN bulk acoustic wave (BAW) solidly mounted resonators (SMRs) for detection of biological species in liquid media. These type of devices base their sensing principles in the variation that their resonant frequency suffers when a mass is attached to their surface. They need to operate in the shear mode to maintain a strong resonance in liquid and an adequate functionalisation of their sensing area to guarantee that only the targeted molecules cause the shift. The challenges that need to be overcome to achieve piezoelectric BAW resonators for high sensitivity detection in fluids require a multidisciplinary approach, that include the study of the materials involved, the design of the device and the fluidic system, the biochemical functionalisation of the active area, the experimental proof-of-concept with different target species and the design of an electronic readout circuit. All this tasks have been tackled at different stages of the thesis and the relevant contributions are described in the document. In the field of materials, a two-stage sputtering deposition process has been developed to obtain good-quality AlN films with uniformly tilted grains required to excite the shear mode. The shear acoustic velocities of the materials composing the acoustic reflector have been accurately studied to ensure an optimum design of the reflector stack. WO3 sputtered films have been proposed as high acoustic impedance material for insulating acoustic reflectors. They display several technological advantages for the processing of the resonators. Regarding the design, a study of the influence of the electrical extensions necessary to fit a fluidic system on the performance of the devices has been performed. The results indicate that high resistivity substrates and insulating reflectors are necessary to avoid the hindering of the resonance due to the parasitic effects induced by the extensions. The influence of the different layers of the stack on the resultant TCF of the SMRs has also been investigated. The two layers of the reflector closer to the piezoelectric layer have a significant influence on the TCF, which can be reduced by modifying their thicknesses accordingly. The data provided by these studies has led to the final design of the devices, which operate at 1.3 GHz in the shear mode and display an active area of 65000 /xm2 and electrical extensions of 1.7 mm while keeping a Qahear=150 in liquid. The extensions enable to fit a custom-made fluidic system made of methacrylate. To perform the biosensing experiments, an experimental setup with a liquid closed circuit operating at constant flow has been developed. Buffers of ionic characteristics have been tested on non-isolated devices, revealing that high operation frequencies prevent the risk of short circuit. An ad-hoc functionalisation protocol based on the standard APTES - Glutaraldehyde process has been developed. It includes two new processes that simplify the fabrication of the transducers: the use of IrO2 as oxidation layer and its functionalisation through an O2 plasma treatment that does not damage the resonators. Both antibodies and aptamers are used as receptors. In liquid sensing proof-of-concept experiments with thrombin, IgG mouse monoclonal antibody and sonicated bacteria have been displayed. A preliminary calibration of the devices using SiO2 layers reveals a sensitivity of 1800 kHz/pg-cm2 and a limit of detection of 4.2 pg. Finally, a first prototype of a low-cost electronic readout circuit designed using a standard microwave approach has been developed. Although its performance can be significantly improved, it is an effective first approach to the final stage of a portable low-cost diagnostic system based on shear mode AlN SMRs.
Resumo:
Este trabajo se ha centrado en la búsqueda y análisis de técnicas de saneamiento y depuración que proporcionen soluciones a poblaciones pequeñas, que por su situación económica o de desarrollo, carecen de estos servicios básicos. Es bien conocido los problemas que genera la falta de acceso al saneamiento básico en contextos de subdesarrollo, agravado en numerosos casos, por los incrementos en la dotación de agua sin introducir las infraestructuras para el tratamiento de las aguas residuales. Esta situación incide directamente sobre la salud de las personas y del medioambiente. Afortunadamente existen Organismos Internacionales y Agencias de Desarrollo y de Medioambiente, que intervienen directamente en estos temas. Los problemas no sólo se presentan en los llamados países en vías de desarrollo, sino que se ha comprobado que también afecta a poblaciones pequeñas con escasos recursos, del mundo más desarrollado. Muchas han sido las técnicas utilizadas con gran éxito en programas de cooperación, pero algunas han fracasado por pérdida de funcionalidad, por errores de diseño, por rápido deterioro de los materiales, o simplemente por falta de adaptabilidad al terreno o no previsión de controles y mantenimiento. La solución a estos eventos pasa por la innovación tanto tecnológica como de gestión, sin olvidar la componente socioeconómica y cultural. Tomar conciencia de un buen diseño adaptado a las características del terreno y de la población, evitaría fracasos por colapso, por falta de mantenimiento, de financiación etc. Por otra parte, se considera necesaria la implementación de programas educativos que incluyan mejoras en los hábitos higiénicos y el conocimiento de las infraestructuras que permitan a la población de destino, adquirir una formación sobre las propias instalaciones, su uso, su mantenimiento y conservación. El desarrollo y mejora de las técnicas de saneamiento y depuración requiere una continuidad en las investigaciones que facilite la adaptación de las instalaciones ya existentes a las diferentes coyunturas que puedan presentarse, garantizando su funcionamiento a largo plazo. Las técnicas denominadas “no convencionales” se caracterizan por ser soluciones económicas y sostenibles, que en algunos casos, requieren poco mantenimiento e incluso éste puede realizarse por personal no especializado, esto es, por los propios usuarios del servicio. Concretamente en el presente trabajo se ha llevado a cabo una revisión general de las tipologías conocidas, tanto convencionales como no convencionales y de su posible aplicación en función de la población de destino, con especial incidencia en las poblaciones más desfavorecidas. Una vez realizada, se han seleccionado las técnicas de saneamiento y depuración no convencionales por el interés personal en las poblaciones con mayores dificultades socioeconómicas. Se han estudiado distintas situaciones en diferentes países y contextos Nicaragua, Ecuador, India y España. Es en esta última, donde se han tenido más facilidades para la obtención de datos y análisis de los mismos, concretamente de la instalación del municipio de Fabara en la provincia de Zaragoza, situado en el Bajo Aragón. ABSTRACT The focus of this project lies on the research and analysis of sanitation and waste water treatment techniques able to provide solutions to small settlements which lack such basic services out of economic or underdevelopment reasons. The problems generated by the absence of access to basic sanitation services in underdevelopment contexts are well known, and many cases can be found where increase of water provision doesn’t involve installation of waste water treatment infrastructures. This situation has a direct impact on people’s health and also on the environment. Fortunately, there are International Organizations and Development Agencies which act directly on these matters. These problems don’t only occur in so called developing countries, as it has been confirmed that small settlements with scarce resources in the more developed world can also be affected. Many techniques have been successfully used in cooperation programs, but also some of them have failed due to loss of functionality, design mistakes, rapid material deterioration, or simply site inadequacy or lack of control and maintenance precautions. The solution to these incidents requires technological as well as management innovation, regarding for all cases the socioeconomic and cultural factors. The awareness of a good design, adapted to the site and population characteristics, would prevent from failures due to collapse, lack of maintenance, funding, etc. Furthermore, the implementation of education programs for improving hygienic habits and for transmitting the understanding of the infrastructures is considered necessary for allowing the aimed population to gain proper knowledge on their own infrastructure, its use, maintenance and preservation. The improvement of sanitation and waste water treatment techniques requires a continuous process of investigation, in order to adapt the existing infrastructure to the different situations that may come up, being able to ensure its long-term functioning. The so called non conventional techniques are characterized by being economic and sustainable solutions, requiring in some cases low maintenance, conducted even by non specialized personnel, that is, by the users themselves. In the present project a general overview of the already developed typologies has been carried out, taking into account the conventional as well as the non conven tional techniques and their possible application according to the aimed population, regarding especially the most underprivileged settlements. Thereupon, out of interest for the settlements with most socioeconomic difficulties, the non conventional sanitation and waste water techniques have been selected. A variety of situations in different countries and contexts has been examined, specifically in Nicaragua, Ecuador, India and Spain. The latest has proven easier for data collection and analysis, focusing finally on the existing infrastructure in the village of Fabara, province of Zaragoza, in the Bajo Aragón.
Resumo:
Los sistemas empotrados han sido concebidos tradicionalmente como sistemas de procesamiento específicos que realizan una tarea fija durante toda su vida útil. Para cumplir con requisitos estrictos de coste, tamaño y peso, el equipo de diseño debe optimizar su funcionamiento para condiciones muy específicas. Sin embargo, la demanda de mayor versatilidad, un funcionamiento más inteligente y, en definitiva, una mayor capacidad de procesamiento comenzaron a chocar con estas limitaciones, agravado por la incertidumbre asociada a entornos de operación cada vez más dinámicos donde comenzaban a ser desplegados progresivamente. Esto trajo como resultado una necesidad creciente de que los sistemas pudieran responder por si solos a eventos inesperados en tiempo diseño tales como: cambios en las características de los datos de entrada y el entorno del sistema en general; cambios en la propia plataforma de cómputo, por ejemplo debido a fallos o defectos de fabricación; y cambios en las propias especificaciones funcionales causados por unos objetivos del sistema dinámicos y cambiantes. Como consecuencia, la complejidad del sistema aumenta, pero a cambio se habilita progresivamente una capacidad de adaptación autónoma sin intervención humana a lo largo de la vida útil, permitiendo que tomen sus propias decisiones en tiempo de ejecución. Éstos sistemas se conocen, en general, como sistemas auto-adaptativos y tienen, entre otras características, las de auto-configuración, auto-optimización y auto-reparación. Típicamente, la parte soft de un sistema es mayoritariamente la única utilizada para proporcionar algunas capacidades de adaptación a un sistema. Sin embargo, la proporción rendimiento/potencia en dispositivos software como microprocesadores en muchas ocasiones no es adecuada para sistemas empotrados. En este escenario, el aumento resultante en la complejidad de las aplicaciones está siendo abordado parcialmente mediante un aumento en la complejidad de los dispositivos en forma de multi/many-cores; pero desafortunadamente, esto hace que el consumo de potencia también aumente. Además, la mejora en metodologías de diseño no ha sido acorde como para poder utilizar toda la capacidad de cómputo disponible proporcionada por los núcleos. Por todo ello, no se están satisfaciendo adecuadamente las demandas de cómputo que imponen las nuevas aplicaciones. La solución tradicional para mejorar la proporción rendimiento/potencia ha sido el cambio a unas especificaciones hardware, principalmente usando ASICs. Sin embargo, los costes de un ASIC son altamente prohibitivos excepto en algunos casos de producción en masa y además la naturaleza estática de su estructura complica la solución a las necesidades de adaptación. Los avances en tecnologías de fabricación han hecho que la FPGA, una vez lenta y pequeña, usada como glue logic en sistemas mayores, haya crecido hasta convertirse en un dispositivo de cómputo reconfigurable de gran potencia, con una cantidad enorme de recursos lógicos computacionales y cores hardware empotrados de procesamiento de señal y de propósito general. Sus capacidades de reconfiguración han permitido combinar la flexibilidad propia del software con el rendimiento del procesamiento en hardware, lo que tiene la potencialidad de provocar un cambio de paradigma en arquitectura de computadores, pues el hardware no puede ya ser considerado más como estático. El motivo es que como en el caso de las FPGAs basadas en tecnología SRAM, la reconfiguración parcial dinámica (DPR, Dynamic Partial Reconfiguration) es posible. Esto significa que se puede modificar (reconfigurar) un subconjunto de los recursos computacionales en tiempo de ejecución mientras el resto permanecen activos. Además, este proceso de reconfiguración puede ser ejecutado internamente por el propio dispositivo. El avance tecnológico en dispositivos hardware reconfigurables se encuentra recogido bajo el campo conocido como Computación Reconfigurable (RC, Reconfigurable Computing). Uno de los campos de aplicación más exóticos y menos convencionales que ha posibilitado la computación reconfigurable es el conocido como Hardware Evolutivo (EHW, Evolvable Hardware), en el cual se encuentra enmarcada esta tesis. La idea principal del concepto consiste en convertir hardware que es adaptable a través de reconfiguración en una entidad evolutiva sujeta a las fuerzas de un proceso evolutivo inspirado en el de las especies biológicas naturales, que guía la dirección del cambio. Es una aplicación más del campo de la Computación Evolutiva (EC, Evolutionary Computation), que comprende una serie de algoritmos de optimización global conocidos como Algoritmos Evolutivos (EA, Evolutionary Algorithms), y que son considerados como algoritmos universales de resolución de problemas. En analogía al proceso biológico de la evolución, en el hardware evolutivo el sujeto de la evolución es una población de circuitos que intenta adaptarse a su entorno mediante una adecuación progresiva generación tras generación. Los individuos pasan a ser configuraciones de circuitos en forma de bitstreams caracterizados por descripciones de circuitos reconfigurables. Seleccionando aquellos que se comportan mejor, es decir, que tienen una mejor adecuación (o fitness) después de ser evaluados, y usándolos como padres de la siguiente generación, el algoritmo evolutivo crea una nueva población hija usando operadores genéticos como la mutación y la recombinación. Según se van sucediendo generaciones, se espera que la población en conjunto se aproxime a la solución óptima al problema de encontrar una configuración del circuito adecuada que satisfaga las especificaciones. El estado de la tecnología de reconfiguración después de que la familia de FPGAs XC6200 de Xilinx fuera retirada y reemplazada por las familias Virtex a finales de los 90, supuso un gran obstáculo para el avance en hardware evolutivo; formatos de bitstream cerrados (no conocidos públicamente); dependencia de herramientas del fabricante con soporte limitado de DPR; una velocidad de reconfiguración lenta; y el hecho de que modificaciones aleatorias del bitstream pudieran resultar peligrosas para la integridad del dispositivo, son algunas de estas razones. Sin embargo, una propuesta a principios de los años 2000 permitió mantener la investigación en el campo mientras la tecnología de DPR continuaba madurando, el Circuito Virtual Reconfigurable (VRC, Virtual Reconfigurable Circuit). En esencia, un VRC en una FPGA es una capa virtual que actúa como un circuito reconfigurable de aplicación específica sobre la estructura nativa de la FPGA que reduce la complejidad del proceso reconfiguración y aumenta su velocidad (comparada con la reconfiguración nativa). Es un array de nodos computacionales especificados usando descripciones HDL estándar que define recursos reconfigurables ad-hoc: multiplexores de rutado y un conjunto de elementos de procesamiento configurables, cada uno de los cuales tiene implementadas todas las funciones requeridas, que pueden seleccionarse a través de multiplexores tal y como ocurre en una ALU de un microprocesador. Un registro grande actúa como memoria de configuración, por lo que la reconfiguración del VRC es muy rápida ya que tan sólo implica la escritura de este registro, el cual controla las señales de selección del conjunto de multiplexores. Sin embargo, esta capa virtual provoca: un incremento de área debido a la implementación simultánea de cada función en cada nodo del array más los multiplexores y un aumento del retardo debido a los multiplexores, reduciendo la frecuencia de funcionamiento máxima. La naturaleza del hardware evolutivo, capaz de optimizar su propio comportamiento computacional, le convierten en un buen candidato para avanzar en la investigación sobre sistemas auto-adaptativos. Combinar un sustrato de cómputo auto-reconfigurable capaz de ser modificado dinámicamente en tiempo de ejecución con un algoritmo empotrado que proporcione una dirección de cambio, puede ayudar a satisfacer los requisitos de adaptación autónoma de sistemas empotrados basados en FPGA. La propuesta principal de esta tesis está por tanto dirigida a contribuir a la auto-adaptación del hardware de procesamiento de sistemas empotrados basados en FPGA mediante hardware evolutivo. Esto se ha abordado considerando que el comportamiento computacional de un sistema puede ser modificado cambiando cualquiera de sus dos partes constitutivas: una estructura hard subyacente y un conjunto de parámetros soft. De esta distinción, se derivan dos lineas de trabajo. Por un lado, auto-adaptación paramétrica, y por otro auto-adaptación estructural. El objetivo perseguido en el caso de la auto-adaptación paramétrica es la implementación de técnicas de optimización evolutiva complejas en sistemas empotrados con recursos limitados para la adaptación paramétrica online de circuitos de procesamiento de señal. La aplicación seleccionada como prueba de concepto es la optimización para tipos muy específicos de imágenes de los coeficientes de los filtros de transformadas wavelet discretas (DWT, DiscreteWavelet Transform), orientada a la compresión de imágenes. Por tanto, el objetivo requerido de la evolución es una compresión adaptativa y más eficiente comparada con los procedimientos estándar. El principal reto radica en reducir la necesidad de recursos de supercomputación para el proceso de optimización propuesto en trabajos previos, de modo que se adecúe para la ejecución en sistemas empotrados. En cuanto a la auto-adaptación estructural, el objetivo de la tesis es la implementación de circuitos auto-adaptativos en sistemas evolutivos basados en FPGA mediante un uso eficiente de sus capacidades de reconfiguración nativas. En este caso, la prueba de concepto es la evolución de tareas de procesamiento de imagen tales como el filtrado de tipos desconocidos y cambiantes de ruido y la detección de bordes en la imagen. En general, el objetivo es la evolución en tiempo de ejecución de tareas de procesamiento de imagen desconocidas en tiempo de diseño (dentro de un cierto grado de complejidad). En este caso, el objetivo de la propuesta es la incorporación de DPR en EHW para evolucionar la arquitectura de un array sistólico adaptable mediante reconfiguración cuya capacidad de evolución no había sido estudiada previamente. Para conseguir los dos objetivos mencionados, esta tesis propone originalmente una plataforma evolutiva que integra un motor de adaptación (AE, Adaptation Engine), un motor de reconfiguración (RE, Reconfiguration Engine) y un motor computacional (CE, Computing Engine) adaptable. El el caso de adaptación paramétrica, la plataforma propuesta está caracterizada por: • un CE caracterizado por un núcleo de procesamiento hardware de DWT adaptable mediante registros reconfigurables que contienen los coeficientes de los filtros wavelet • un algoritmo evolutivo como AE que busca filtros wavelet candidatos a través de un proceso de optimización paramétrica desarrollado específicamente para sistemas caracterizados por recursos de procesamiento limitados • un nuevo operador de mutación simplificado para el algoritmo evolutivo utilizado, que junto con un mecanismo de evaluación rápida de filtros wavelet candidatos derivado de la literatura actual, asegura la viabilidad de la búsqueda evolutiva asociada a la adaptación de wavelets. En el caso de adaptación estructural, la plataforma propuesta toma la forma de: • un CE basado en una plantilla de array sistólico reconfigurable de 2 dimensiones compuesto de nodos de procesamiento reconfigurables • un algoritmo evolutivo como AE que busca configuraciones candidatas del array usando un conjunto de funcionalidades de procesamiento para los nodos disponible en una biblioteca accesible en tiempo de ejecución • un RE hardware que explota la capacidad de reconfiguración nativa de las FPGAs haciendo un uso eficiente de los recursos reconfigurables del dispositivo para cambiar el comportamiento del CE en tiempo de ejecución • una biblioteca de elementos de procesamiento reconfigurables caracterizada por bitstreams parciales independientes de la posición, usados como el conjunto de configuraciones disponibles para los nodos de procesamiento del array Las contribuciones principales de esta tesis se pueden resumir en la siguiente lista: • Una plataforma evolutiva basada en FPGA para la auto-adaptación paramétrica y estructural de sistemas empotrados compuesta por un motor computacional (CE), un motor de adaptación (AE) evolutivo y un motor de reconfiguración (RE). Esta plataforma se ha desarrollado y particularizado para los casos de auto-adaptación paramétrica y estructural. • En cuanto a la auto-adaptación paramétrica, las contribuciones principales son: – Un motor computacional adaptable mediante registros que permite la adaptación paramétrica de los coeficientes de una implementación hardware adaptativa de un núcleo de DWT. – Un motor de adaptación basado en un algoritmo evolutivo desarrollado específicamente para optimización numérica, aplicada a los coeficientes de filtros wavelet en sistemas empotrados con recursos limitados. – Un núcleo IP de DWT auto-adaptativo en tiempo de ejecución para sistemas empotrados que permite la optimización online del rendimiento de la transformada para compresión de imágenes en entornos específicos de despliegue, caracterizados por tipos diferentes de señal de entrada. – Un modelo software y una implementación hardware de una herramienta para la construcción evolutiva automática de transformadas wavelet específicas. • Por último, en cuanto a la auto-adaptación estructural, las contribuciones principales son: – Un motor computacional adaptable mediante reconfiguración nativa de FPGAs caracterizado por una plantilla de array sistólico en dos dimensiones de nodos de procesamiento reconfigurables. Es posible mapear diferentes tareas de cómputo en el array usando una biblioteca de elementos sencillos de procesamiento reconfigurables. – Definición de una biblioteca de elementos de procesamiento apropiada para la síntesis autónoma en tiempo de ejecución de diferentes tareas de procesamiento de imagen. – Incorporación eficiente de la reconfiguración parcial dinámica (DPR) en sistemas de hardware evolutivo, superando los principales inconvenientes de propuestas previas como los circuitos reconfigurables virtuales (VRCs). En este trabajo también se comparan originalmente los detalles de implementación de ambas propuestas. – Una plataforma tolerante a fallos, auto-curativa, que permite la recuperación funcional online en entornos peligrosos. La plataforma ha sido caracterizada desde una perspectiva de tolerancia a fallos: se proponen modelos de fallo a nivel de CLB y de elemento de procesamiento, y usando el motor de reconfiguración, se hace un análisis sistemático de fallos para un fallo en cada elemento de procesamiento y para dos fallos acumulados. – Una plataforma con calidad de filtrado dinámica que permite la adaptación online a tipos de ruido diferentes y diferentes comportamientos computacionales teniendo en cuenta los recursos de procesamiento disponibles. Por un lado, se evolucionan filtros con comportamientos no destructivos, que permiten esquemas de filtrado en cascada escalables; y por otro, también se evolucionan filtros escalables teniendo en cuenta requisitos computacionales de filtrado cambiantes dinámicamente. Este documento está organizado en cuatro partes y nueve capítulos. La primera parte contiene el capítulo 1, una introducción y motivación sobre este trabajo de tesis. A continuación, el marco de referencia en el que se enmarca esta tesis se analiza en la segunda parte: el capítulo 2 contiene una introducción a los conceptos de auto-adaptación y computación autonómica (autonomic computing) como un campo de investigación más general que el muy específico de este trabajo; el capítulo 3 introduce la computación evolutiva como la técnica para dirigir la adaptación; el capítulo 4 analiza las plataformas de computación reconfigurables como la tecnología para albergar hardware auto-adaptativo; y finalmente, el capítulo 5 define, clasifica y hace un sondeo del campo del hardware evolutivo. Seguidamente, la tercera parte de este trabajo contiene la propuesta, desarrollo y resultados obtenidos: mientras que el capítulo 6 contiene una declaración de los objetivos de la tesis y la descripción de la propuesta en su conjunto, los capítulos 7 y 8 abordan la auto-adaptación paramétrica y estructural, respectivamente. Finalmente, el capítulo 9 de la parte 4 concluye el trabajo y describe caminos de investigación futuros. ABSTRACT Embedded systems have traditionally been conceived to be specific-purpose computers with one, fixed computational task for their whole lifetime. Stringent requirements in terms of cost, size and weight forced designers to highly optimise their operation for very specific conditions. However, demands for versatility, more intelligent behaviour and, in summary, an increased computing capability began to clash with these limitations, intensified by the uncertainty associated to the more dynamic operating environments where they were progressively being deployed. This brought as a result an increasing need for systems to respond by themselves to unexpected events at design time, such as: changes in input data characteristics and system environment in general; changes in the computing platform itself, e.g., due to faults and fabrication defects; and changes in functional specifications caused by dynamically changing system objectives. As a consequence, systems complexity is increasing, but in turn, autonomous lifetime adaptation without human intervention is being progressively enabled, allowing them to take their own decisions at run-time. This type of systems is known, in general, as selfadaptive, and are able, among others, of self-configuration, self-optimisation and self-repair. Traditionally, the soft part of a system has mostly been so far the only place to provide systems with some degree of adaptation capabilities. However, the performance to power ratios of software driven devices like microprocessors are not adequate for embedded systems in many situations. In this scenario, the resulting rise in applications complexity is being partly addressed by rising devices complexity in the form of multi and many core devices; but sadly, this keeps on increasing power consumption. Besides, design methodologies have not been improved accordingly to completely leverage the available computational power from all these cores. Altogether, these factors make that the computing demands new applications pose are not being wholly satisfied. The traditional solution to improve performance to power ratios has been the switch to hardware driven specifications, mainly using ASICs. However, their costs are highly prohibitive except for some mass production cases and besidesthe static nature of its structure complicates the solution to the adaptation needs. The advancements in fabrication technologies have made that the once slow, small FPGA used as glue logic in bigger systems, had grown to be a very powerful, reconfigurable computing device with a vast amount of computational logic resources and embedded, hardened signal and general purpose processing cores. Its reconfiguration capabilities have enabled software-like flexibility to be combined with hardware-like computing performance, which has the potential to cause a paradigm shift in computer architecture since hardware cannot be considered as static anymore. This is so, since, as is the case with SRAMbased FPGAs, Dynamic Partial Reconfiguration (DPR) is possible. This means that subsets of the FPGA computational resources can now be changed (reconfigured) at run-time while the rest remains active. Besides, this reconfiguration process can be triggered internally by the device itself. This technological boost in reconfigurable hardware devices is actually covered under the field known as Reconfigurable Computing. One of the most exotic fields of application that Reconfigurable Computing has enabled is the known as Evolvable Hardware (EHW), in which this dissertation is framed. The main idea behind the concept is turning hardware that is adaptable through reconfiguration into an evolvable entity subject to the forces of an evolutionary process, inspired by that of natural, biological species, that guides the direction of change. It is yet another application of the field of Evolutionary Computation (EC), which comprises a set of global optimisation algorithms known as Evolutionary Algorithms (EAs), considered as universal problem solvers. In analogy to the biological process of evolution, in EHW the subject of evolution is a population of circuits that tries to get adapted to its surrounding environment by progressively getting better fitted to it generation after generation. Individuals become circuit configurations representing bitstreams that feature reconfigurable circuit descriptions. By selecting those that behave better, i.e., with a higher fitness value after being evaluated, and using them as parents of the following generation, the EA creates a new offspring population by using so called genetic operators like mutation and recombination. As generations succeed one another, the whole population is expected to approach to the optimum solution to the problem of finding an adequate circuit configuration that fulfils system objectives. The state of reconfiguration technology after Xilinx XC6200 FPGA family was discontinued and replaced by Virtex families in the late 90s, was a major obstacle for advancements in EHW; closed (non publicly known) bitstream formats; dependence on manufacturer tools with highly limiting support of DPR; slow speed of reconfiguration; and random bitstream modifications being potentially hazardous for device integrity, are some of these reasons. However, a proposal in the first 2000s allowed to keep investigating in this field while DPR technology kept maturing, the Virtual Reconfigurable Circuit (VRC). In essence, a VRC in an FPGA is a virtual layer acting as an application specific reconfigurable circuit on top of an FPGA fabric that reduces the complexity of the reconfiguration process and increases its speed (compared to native reconfiguration). It is an array of computational nodes specified using standard HDL descriptions that define ad-hoc reconfigurable resources; routing multiplexers and a set of configurable processing elements, each one containing all the required functions, which are selectable through functionality multiplexers as in microprocessor ALUs. A large register acts as configuration memory, so VRC reconfiguration is very fast given it only involves writing this register, which drives the selection signals of the set of multiplexers. However, large overheads are introduced by this virtual layer; an area overhead due to the simultaneous implementation of every function in every node of the array plus the multiplexers, and a delay overhead due to the multiplexers, which also reduces maximum frequency of operation. The very nature of Evolvable Hardware, able to optimise its own computational behaviour, makes it a good candidate to advance research in self-adaptive systems. Combining a selfreconfigurable computing substrate able to be dynamically changed at run-time with an embedded algorithm that provides a direction for change, can help fulfilling requirements for autonomous lifetime adaptation of FPGA-based embedded systems. The main proposal of this thesis is hence directed to contribute to autonomous self-adaptation of the underlying computational hardware of FPGA-based embedded systems by means of Evolvable Hardware. This is tackled by considering that the computational behaviour of a system can be modified by changing any of its two constituent parts: an underlying hard structure and a set of soft parameters. Two main lines of work derive from this distinction. On one side, parametric self-adaptation and, on the other side, structural self-adaptation. The goal pursued in the case of parametric self-adaptation is the implementation of complex evolutionary optimisation techniques in resource constrained embedded systems for online parameter adaptation of signal processing circuits. The application selected as proof of concept is the optimisation of Discrete Wavelet Transforms (DWT) filters coefficients for very specific types of images, oriented to image compression. Hence, adaptive and improved compression efficiency, as compared to standard techniques, is the required goal of evolution. The main quest lies in reducing the supercomputing resources reported in previous works for the optimisation process in order to make it suitable for embedded systems. Regarding structural self-adaptation, the thesis goal is the implementation of self-adaptive circuits in FPGA-based evolvable systems through an efficient use of native reconfiguration capabilities. In this case, evolution of image processing tasks such as filtering of unknown and changing types of noise and edge detection are the selected proofs of concept. In general, evolving unknown image processing behaviours (within a certain complexity range) at design time is the required goal. In this case, the mission of the proposal is the incorporation of DPR in EHW to evolve a systolic array architecture adaptable through reconfiguration whose evolvability had not been previously checked. In order to achieve the two stated goals, this thesis originally proposes an evolvable platform that integrates an Adaptation Engine (AE), a Reconfiguration Engine (RE) and an adaptable Computing Engine (CE). In the case of parametric adaptation, the proposed platform is characterised by: • a CE featuring a DWT hardware processing core adaptable through reconfigurable registers that holds wavelet filters coefficients • an evolutionary algorithm as AE that searches for candidate wavelet filters through a parametric optimisation process specifically developed for systems featured by scarce computing resources • a new, simplified mutation operator for the selected EA, that together with a fast evaluation mechanism of candidate wavelet filters derived from existing literature, assures the feasibility of the evolutionary search involved in wavelets adaptation In the case of structural adaptation, the platform proposal takes the form of: • a CE based on a reconfigurable 2D systolic array template composed of reconfigurable processing nodes • an evolutionary algorithm as AE that searches for candidate configurations of the array using a set of computational functionalities for the nodes available in a run time accessible library • a hardware RE that exploits native DPR capabilities of FPGAs and makes an efficient use of the available reconfigurable resources of the device to change the behaviour of the CE at run time • a library of reconfigurable processing elements featured by position-independent partial bitstreams used as the set of available configurations for the processing nodes of the array Main contributions of this thesis can be summarised in the following list. • An FPGA-based evolvable platform for parametric and structural self-adaptation of embedded systems composed of a Computing Engine, an evolutionary Adaptation Engine and a Reconfiguration Engine. This platform is further developed and tailored for both parametric and structural self-adaptation. • Regarding parametric self-adaptation, main contributions are: – A CE adaptable through reconfigurable registers that enables parametric adaptation of the coefficients of an adaptive hardware implementation of a DWT core. – An AE based on an Evolutionary Algorithm specifically developed for numerical optimisation applied to wavelet filter coefficients in resource constrained embedded systems. – A run-time self-adaptive DWT IP core for embedded systems that allows for online optimisation of transform performance for image compression for specific deployment environments characterised by different types of input signals. – A software model and hardware implementation of a tool for the automatic, evolutionary construction of custom wavelet transforms. • Lastly, regarding structural self-adaptation, main contributions are: – A CE adaptable through native FPGA fabric reconfiguration featured by a two dimensional systolic array template of reconfigurable processing nodes. Different processing behaviours can be automatically mapped in the array by using a library of simple reconfigurable processing elements. – Definition of a library of such processing elements suited for autonomous runtime synthesis of different image processing tasks. – Efficient incorporation of DPR in EHW systems, overcoming main drawbacks from the previous approach of virtual reconfigurable circuits. Implementation details for both approaches are also originally compared in this work. – A fault tolerant, self-healing platform that enables online functional recovery in hazardous environments. The platform has been characterised from a fault tolerance perspective: fault models at FPGA CLB level and processing elements level are proposed, and using the RE, a systematic fault analysis for one fault in every processing element and for two accumulated faults is done. – A dynamic filtering quality platform that permits on-line adaptation to different types of noise and different computing behaviours considering the available computing resources. On one side, non-destructive filters are evolved, enabling scalable cascaded filtering schemes; and on the other, size-scalable filters are also evolved considering dynamically changing computational filtering requirements. This dissertation is organized in four parts and nine chapters. First part contains chapter 1, the introduction to and motivation of this PhD work. Following, the reference framework in which this dissertation is framed is analysed in the second part: chapter 2 features an introduction to the notions of self-adaptation and autonomic computing as a more general research field to the very specific one of this work; chapter 3 introduces evolutionary computation as the technique to drive adaptation; chapter 4 analyses platforms for reconfigurable computing as the technology to hold self-adaptive hardware; and finally chapter 5 defines, classifies and surveys the field of Evolvable Hardware. Third part of the work follows, which contains the proposal, development and results obtained: while chapter 6 contains an statement of the thesis goals and the description of the proposal as a whole, chapters 7 and 8 address parametric and structural self-adaptation, respectively. Finally, chapter 9 in part 4 concludes the work and describes future research paths.