1000 resultados para Generación a partir de ejemplos
Resumo:
Está Tesis refleja los trabajos de investigación que tienen como resultado el desarrollo de una metodología cuyo objetivo es la automatización optimizada en la generación de grandes entornos virtuales destinados a simulaciones de conducción terrestre guiada, es decir, sobre trayectorias predefinidas, bajo PC. En ella se aborda el ciclo completo de generación de un entorno virtual, aportando soluciones optimizadas en cada una de las fases. Para definir estas soluciones, se ha llevado a cabo un estudio en profundidad de las características y requisitos exigidos a este tipo de representaciones virtuales así como de las posibles vías resolutivas, concluyéndose con el establecimiento de tres fases constructivas. La primera fase es la del análisis perceptivo visual. La presente Tesis, tras sintetizar las características que definen a este tipo de entornos así como sus condiciones perceptivas, propone una metodología constructiva que saca el máximo partido de las mismas de una manera hasta ahora no considerada: la creación del entorno mediante el ensamblaje y repetición (instanciación) de un número finito de patrones repetitivos o módulos. Son múltiples las ventajas aportadas por este sistema modular de instanciación: disminución de las labores de modelado, reducción drástica de la memoria de almacenamiento requerida y de los tiempos de carga, facilitación de las tareas de creación y edición de los escenarios. La segunda fase es la generación geométrica y topológica del entorno. El elevado volumen y heterogeneidad de la información a manejar hace necesario el desarrollo de métodos que automaticen el procesamiento de la misma. La presente Tesis desarrolla un sistema consistente en varios criterios de organización, corrección y almacenamiento de la información de partida. Dicho sistema permite por un lado la construcción fácilmente escalable y editable de entornos que cumplan las normativas circulatorias vigentes y por otro lado garantiza un óptimo flujo de la información entre los diversos subsistemas integrantes de la simulación. Flujo que ha sido plasmado en la elaboración de diversos protocolos de comunicación. La tercera fase es la del posicionamiento 3D de la base de datos visual, su jerarquización y optimización escénica. En esta fase, la presente Tesis ha desarrollado una serie de Algoritmos de Posicionamiento modular que garantizan el correcto acoplamiento de los módulos a lo largo de una serie de líneas directrices. Dichas líneas son creadas a partir de la definición de las trayectorias circulatorias, lo que ha permitido a su vez, la definición por parte de esta Tesis de un sistema de niveles de detalle discretos pseudo-variantes con el punto de vista, que permite optimizar la carga geométrica del escenario, mediante la definición en tiempo de precarga de los posibles niveles de detalle de cada módulo en función de su distancia transversal a la trayectoria. Por otro lado, con el fin de potenciar las ventajas de este sistema de instanciación esta Tesis propone el empleo de una serie de shaders que deforman los módulos en tiempo real, lo que permite disminuir el número de módulos necesarios en tiempo de precarga y aumenta la versatilidad constructiva y realismo de los escenarios. Finalmente, esta Tesis organiza todo el escenario en un grafo de la escena (scene graph) que busca minimizar el recorrido del mismo con el fin de maximizar las velocidades de refresco y facilitar las labores de edición de los escenarios. En este punto, la construcción modular del entorno es fundamental para alcanzar dichos objetivos. Todos los planteamientos teóricos expuestos en esta Tesis se han materializado en las correspondientes aplicaciones informáticas que se han validado como herramientas de desarrollo en la creación de grandes entornos virtuales de simuladores actualmente en funcionamiento, como los de Metro de Madrid de las series 7000, 8000, 3000, 9000 y Citadis y en otros experimentales donde también se han implementado los criterios y resultados perceptivos que optimizan estos simuladores.
Resumo:
El lodo de depuradora es el residuo líquido o semilíquido procedente de las Estaciones Depuradoras de Aguas Residuales (EDARs) del que puede obtenerse una energía renovable empleando la tecnología de la gasificación. Esta tecnología consiste en la oxidación parcial del sustrato carbonoso del lodo a altas temperaturas bajo condiciones subestequiométricas de aire, oxígeno u otros agentes gasificantes. Los productos obtenidos mediante gasificación son: un gas de síntesis (SYNGAS, con composición variable de H2, CO) un residuo carbonizado (char) y una fracción líquida de compuestos orgánicos de distinto peso molecular denominados alquitranes. El gas de síntesis tiene aplicaciones como son la generación de energía eléctrica/térmica o la síntesis de compuestos químicos. Sin embargo, la presencia de alquitranes imposibilita su uso en buena parte de las aplicaciones. El trabajo realizado que aquí se presenta estudia la posibilidad de tratar los lodos de depuradora mediante gasificación. Para ello, se han realizado las siguientes tareas: - Caracterización del lodo incluyendo la determinación de su humedad, materia orgánica, análisis elemental (C, N, H, S) y contenido de metales pesados (Cd, Cu, Ni, Pb, Zn, Hg y Cr). - Estudios de termogravimetría (TGA) del lodo para conocer su comportamiento térmico y la temperatura a la que se producen las principales reacciones en la gasificación. - Gasificación en un equipo de lecho fluido burbujeante y alimentación en continuo a escala de laboratorio. Con dicho gasificador se ha experimentado a distintas temperaturas y cargas para conocer las condiciones de proceso más favorables para aumentar la producción y el poder calorífico del SYNGAS obteniendo, a la vez, una baja producción en alquitranes. Para ello se ha analizado la composición de los gases obtenidos, la producción de alquitranes, la conversión del carbón y la eficiencia en la gasificación. Los alquitranes fueron analizados mediante cromatografía de gases y espectrometría de masas, para conocer y cuantificar sus diferentes componentes. - Determinación de la capacidad adsorbente de carbones activos producidos mediante gasificación, utilizando azul de metileno como adsorbato. Las conclusiones obtenidas permiten considerar la viabilidad técnica de la gasificación de lodos como fuente de energía renovable.
Resumo:
In current communication systems, there are many new challenges like various competitive standards, the scarcity of frequency resource, etc., especially the development of personal wireless communication systems result the new system update faster than ever before, the conventional hardware-based wireless communication system is difficult to adapt to this situation. The emergence of SDR enabled the third revolution of wireless communication which from hardware to software and build a flexible, reliable, upgradable, reusable, reconfigurable and low cost platform. The Universal Software Radio Peripheral (USRP) products are commonly used with the GNU Radio software suite to create complex SDR systems. GNU Radio is a toolkit where digital signal processing blocks are written in C++, and connected to each other with Python. This makes it easy to develop more sophisticated signal processing systems, because many blocks already written by others and you can quickly put them together to create a complete system. Although the main function of GNU Radio is not be a simulator, but if there is no RF hardware components,it supports to researching the signal processing algorithm based on pre-stored and generated data by signal generator. This thesis introduced SDR platform from hardware (USRP) and software(GNU Radio), as well as some basic modulation techniques in wireless communication system. Based on the examples provided by GNU Radio, carried out some related experiments, for example GSM scanning and FM radio station receiving on USRP. And make a certain degree of improvement based on the experience of some investigators to observe OFDM spectrum and simulate real-time video transmission. GNU Radio combine with USRP hardware proved to be a valuable lab platform for implementing complex radio system prototypes in a short time. RESUMEN. Software Defined Radio (SDR) es una tecnología emergente que está creando un impacto revolucionario en la tecnología de radio convencional. Un buen ejemplo de radio software son los sistemas de código abierto llamados GNU Radio que emplean un kit de herramientas de desarrollo de software libre. En este trabajo se ha empleado un kit de desarrollo comercial (Ettus Research) que consiste en un módulo de procesado de señal y un hardaware sencillo. El módulo emplea un software de desarrollo basado en Linux sobre el que se pueden implementar aplicaciones de radio software muy variadas. El hardware de desarrollo consta de un microprocesador de propósito general, un dispositivo programable (FPGA) y un interfaz de radiofrecuencia que cubre de 50 a 2200MHz. Este hardware se conecta al PC por medio de un interfaz USB de 8Mb/s de velocidad. Sobre la plataforma de Ettus se pueden ejecutar aplicaciones GNU radio que utilizan principalmente lenguaje de programación Python para implementarse. Sin embargo, su módulo de procesado de señal está construido en C + + y emplea un microprocesador con aritmética de coma flotante. Por lo tanto, los desarrolladores pueden rápida y fácilmente construir aplicaciones en tiempo real sistemas de comunicación inalámbrica de alta capacidad. Aunque su función principal no es ser un simulador, si no puesto que hay componentes de hardware RF, Radio GNU sirve de apoyo a la investigación del algoritmo de procesado de señales basado en pre-almacenados y generados por los datos del generador de señal. En este trabajo fin de máster se ha evaluado la plataforma de hardware de DEG (USRP) y el software (GNU Radio). Para ello se han empleado algunas técnicas de modulación básicas en el sistema de comunicación inalámbrica. A partir de los ejemplos proporcionados por GNU Radio, hemos realizado algunos experimentos relacionados, por ejemplo, escaneado del espectro, demodulación de señales de FM empleando siempre el hardware de USRP. Una vez evaluadas aplicaciones sencillas se ha pasado a realizar un cierto grado de mejora y optimización de aplicaciones complejas descritas en la literatura. Se han empleado aplicaciones como la que consiste en la generación de un espectro de OFDM y la simulación y transmisión de señales de vídeo en tiempo real. Con estos resultados se está ahora en disposición de abordar la elaboración de aplicaciones complejas.
Resumo:
A profunda crisis de la ‘nave espacial Tierra’ que cohabitamos, como llamaba Buckminster Fuller a nuestro planeta, y los imparables cambios en los modos de vida occidentales demandan un urgente cambio en el modelo de vivienda que las sociedades‘desarrolladas’ proporcionan a sus ciudadanos. Los nuevos modos de vida son variables e imprevisibles, incapaces de ser predeterminados en un proyecto arquitectónico ‘cerrado’. Los avances tecnológicos conducen a la movilidad, la desaparición del hogar tradicional, la interrelación de los espacios de vivienda y trabajo y anticipan la llegada de tipos de vida más dinámicos y menos ligados a un sitio específico. En cuanto a las formas de relación, disminuye la duración de los compromisos afectivos y crece el número de personas con una vida al margen de la familia tradicional o producto de la disgregación de proyectos familiares. Y, en el campo arquitectónico, no dejan de surgir nuevas herramientas mecánicas y tecnológicas capaces de transformar, de forma sencilla, una vivienda. Todas estas circunstancias no encuentran acomodo en las viviendas concebidas para los modos de vida de las pasadas generaciones. Desde hace décadas, al menos en nuestro país, los arquitectos han dejado de diseñar las viviendas de promoción privada que firman, ya que el propio ‘mercado’ se encarga de hacerlo. Las viviendas que el ‘mercado’ diseña no persiguen entregar a sus habitantes un lugar donde puedan desarrollar sus potencialidades. El único objetivo de estas promociones es el beneficio económico. Las casas que el ‘mercado’ promueve son indiferentes a las minorías y a los nuevos modos de vida. Son viviendas mínimas y uniformes para, de esta forma, maximizar el beneficio y simplificar el proceso económico. Estas viviendas promueven los mismos valores que guían nuestra ‘nave’: son individualistas, buscando minimizar el contacto vecinal, persiguen la uniformidad, en personas y pensamientos, y perpetúan valores, ya que insisten en repetir los mismos modelos habitacionales creados para los modos de vida de las generaciones anteriores. Son casas cerradas que tratan de imponer a sus habitantes el modo de habitarlas. Son casas estáticas que no están pensadas para facilitar su adaptación al particular modo de vida de sus ocupantes. Siguiendo en nuestro país, las viviendas de promoción pública obedecen, también desde hace décadas, a una normativa desfasada ajena a los nuevos modelos familiares, los nuevos modelos de convivencia al margen de la familia, el trabajo en casa, las nuevas tecnologías y los esquemas habitacionales con espacios compartidos. Las viviendas que esta normativa obliga a construir no solo obedecen al modo de vida de dos generaciones atrás, momento en que estas normas se redactaron; tampoco permiten la alteración de sus adjudicatarios para acomodar las viviendas a sus particulares circunstancias. La inflexibilidad de estas normativas obsoletas provoca que el Estado no esté en realidad subvencionando un espacio donde sus habitantes puedan desarrollar la vida que deseen. Lo que el Estado, por medio de estas viviendas, subvenciona es una determinada forma de vida. Esta tesis propone un modelo de vivienda que denomina ‘casa abierta’ porque está abierta a ser vivida tal y como sus ocupantes deseen y necesiten. La casa abierta es un espacio indeterminado que sus usuarios han de completar conceptualmente, y que pueden transformar con facilidad, cuantas veces deseen, según su propio criterio. Es un espacio lleno de potencialidades, un soporte definido solo a medias, a la espera que el usuario lo adapte a sus necesidades. El primer objetivo de la casa abierta es responder a los nuevos modos de vida. Es, pues, destino de algo que está pasando. Pero la casa abierta tiene también un segundo objetivo, tan importante como el primero: ayudar a desarrollar nuevos valores, ser origen de algo, desconocido aún, que ayude a enderezar el rumbo de nuestra ‘nave’. Esta tesis cree que cada nueva generación trae consigo nuevas capacidades que podrían ayudar a las anteriores a solventar sus problemas. Por ello defiende una educación que promueva la diversidad y la creatividad, evitando imponer valores caducos e incitando a los jóvenes a encontrar sus propias capacidades y desarrollarlas, no ya por su propio interés personal sino por la satisfacción de aportarlas al mundo. La casa abierta persigue objetivos similares. Su anhelo es proporcionar buenas herramientas y nuevos valores a sus ocupantes, y dejarles hacer. La casa abierta busca incitar a sus habitantes a desarrollar su creatividad sobre su propio hábitat, convirtiéndolos en co-creadores y, en consecuencia, responsables del mismo. La casa abierta es un espacio de libertad, donde sus ocupantes pueden desarrollar su diferencia, singularidad y diversidad, pudiendo crear un entorno que responda a sus criterios y su sensibilidad. La casa abierta es un lugar de experimentación donde replantear las convenciones sobre la casa, probando nuevas formas de convivencia y hábitat acordes con los nuevos modos de vida. La casa abierta busca también estimular el sentido comunitario de sus ocupantes, favoreciendo el contacto y la agrupación entre vecinos. Pero también desea contribuir a crear un modelo de desarrollo sostenible, respetuoso con el medio ambiente, los recursos del planeta y el futuro de las generaciones venideras. Para crear una casa abierta proponemos diez atributos: versatilidad, permeabilidad elasticidad, adaptabilidad, perfectibilidad, movilidad, sociabilidad, indeterminación, disgregación y sostenibilidad. Con ellos tratamos de establecer diversas cualidades a incorporar en los futuros proyectos de viviendas. A partir de estos diez atributos la tesis analiza cerca de 200 proyectos de vivienda de los últimos 90 años, donde el habitante es parte activa en su concepción o donde los ocupantes pueden transformar su vivienda, con facilidad, acomodándola a su modo de vida o a su estado de ánimo. Dentro de la historia de la arquitectura moderna existen grandes ejemplos de viviendas o proyectos que cumplen con algunos de los atributos propuestos. Muchos de los planteamientos de la ‘casa abierta’ tienen su origen en los años 20 del siglo pasado. Fueron desarrollados por los arquitectos de la primera generación del movimiento moderno, sobre todo Adolf Loos, Le Corbusier, Mies van der Rohe, Gerrit Rietveld, y Buckminster Fuller. El periodo más cercano a las ideas de la casa abierta es el comprendido entre 1955 y 1980, con el trabajo de la tercera generación de arquitectos del movimiento moderno. En estos años surgen grandes ejemplos de casas abiertas, se publican libros sobre la implicación de los habitantes en el diseño de sus casas y se convocan coloquios sobre la adaptabilidad de las viviendas. Entre los ejemplos construidos destacan las viviendas Il Rigo Quarter de Renzo Piano, el complejo residencial Genter Strasse en Munich de Otto Steidle, Doris y Ralph Thut, los apartamentos universitarios en Lovaina de Lucien Kroll y el inicio de las comunidades de cohousing en Dinamarca. La década de 1990 es también propensa a la casa abierta. Entre los ejemplos construidos podemos destacar las casas Latapie y Coutras de Lacaton y Vassal, la Residencia Yakult de Toshio Akimoto, las casas Naked y la Nine square grid de Shigeru Ban y los apartamentos Fukuoka de Steven Holl. En esta década, surgen las cooperativas de viviendas autopromocionadas en Centroeuropa, como la Sargfabrik de BKK-2 en Viena, y se produce el desembarco del cohousing danés en EEUU. Ya en el siglo XXI podemos destacar las viviendas sociales Quinta Monroy y la Colonia Lo Barnechea de Alejandro Aravena-Elemental, las 14 viviendas en Mulhouse de Lacaton y Vassal, las casas Glass Shutter y Metal Shutter de Shigeru Ban, la casa Moriyama de SANAA, el d21system de José Miguel Reyes González y la ETSAM, la propuesta Parasite para Amsterdam, de Maccreanor y Lavington, la Shinonome Canal Court de Tokio y muchos ejemplos de viviendas prefabricadas y móviles como la Micro Compact Home o la LoftCube.
Resumo:
Este proyecto consiste en el desarrollo de un sistema completo de generación procedimental de misiones para videojuegos. Buscamos crear, mediante un encadenamiento de algoritmos y un modelado del juego y sus componentes, secuencias de acciones y eventos de juego encadenados entre sí de forma lógica. La realización de estas secuencias de acciones lleva progresivamente hacia un objetivo final. Estas secuencias se conocen en el mundo de los juegos como misiones. Las dos fases principales del proceso son la generación de una misión a partir de un estado de juego inicial y la búsqueda de una misión óptima utilizando ciertos criterios que pueden estar ligados a las propiedades del jugador, dando lugar a misiones adaptativas. El proyecto contempla el desarrollo íntegro del sistema, lo que incluye tanto el sistema de generación y búsqueda como un videojuego donde integrar el resto del sistema para completarlo. El resultado final es plenamente funcional y jugable. La base teórica del proyecto proviene de la simbiosis de dos artes: la generación procedimental de contenido y la narración interactiva. This project involves the development of a complete procedural game quest generation system. We seek to build, by linking a series of algorithms, game and game component models, sequences of logically chained game actions and events. The ordered accomplishment of these sequences lead progressively to the fulfillment of a final objective. These sequences are known as quests in the videogame world. The two main parts of the process are quest generation from an initial game state and optimal quest search. This last is achieved by using certain criteria that can defined by the player properties, thus giving birth to adaptive quests. In this project. The system is comprehensively developed, including the quest generation and optimal search, as well as a full videogame, in which the rest of the system will be embedded so as to complete it. The final result is fully functional and playable. The theoretical basis of the project comes from the symbiosis of two different arts: procedural content generation and interactive storytelling.
Resumo:
La simulación de registros sísmicos, compatibles con espectros medios de diseño, se ha convertido en una necesidad en los últimos años, debido principalmente a su exigencia en la norma de regulación del cálculo de centrales nucleares. En este trabajo se presentan distintas posibilidades de realización de esta simulación, así como una comparación entre ellas, apareciendo como una alternativa efectiva a los métodos clásicos la utilización del contenido de fase de los seismos reales. Mediante ello se establece un procedimiento que elimina la arbitrariedad que supone el uso de una función envolvente para definir la característica no estacionaria del registro. Los distintos métodos son descritos detalladamente, así como la influencia de los diferentes parámetros que intervienen en cada uno de ellos. Por último se presentan algunos ejemplos numéricos = The simulation of spectrum-compatible earthquake time histories, has been a need since the beginning of the development of earthquake engineering for complicated structures. More than the safety of the main structure, the analysis of the equipment (piping, rackes, etc.) can be assesed only on the basis of time-histories of the floor in which they are contained. This paper presents several alternatives to the generation of sinthetic time histories and the use of the distribution of the differences among the phase-angles is demonstrated to be a useful tool to simulate the nonstationarity of the process. Thorugh the paper an extensive use is made of the F.F.T. algorithm.
Resumo:
En este trabajo de Tesis Doctoral se ha estudiado la posibilidad de emplear las microalgas, concretamente el género Scenedesmus, como sustrato para la producción de biogás mediante digestión anaerobia, así como los residuos que se producen como consecuencia de su utilización industrial para diferentes fines. La utilización de las microalgas para la producción de biocombustibles es un tema de gran actualidad científica, en el que residen muchas expectativas para la producción a gran escala de biocombustibles que supongan una alternativa real a los combustibles fósiles. Existen numerosas investigaciones sobre la conversión a biogás de las microalgas, sin embargo aún hay poco conocimiento sobre la utilización de la digestión anaerobia como tratamiento de residuos de microalgas en un concepto de biorrefinería. Residuos que pueden ser generados tras la extracción de compuestos de alto valor añadido (p. ej. aminoácidos) o tras la generación de otro biocombustible (p. ej. biodiésel). Es en este aspecto en el que esta Tesis Doctoral destaca en cuanto a originalidad e innovación, ya que se ha centrado principalmente en tres posibilidades: - Empleo de Scenedesmus sp. como cultivo energético para la producción de biogás. - Tratamiento de residuos de Scenedesmus sp. generados tras la extracción de aminoácidos en un concepto de biorrefinería. - Tratamiento de los residuos de Scenedesmus sp. generados tras la extracción de lípidos en un concepto de biorrefinería. Los resultados obtenidos demuestran que la microalga Scenedesmus como cultivo energético para producción de biogás no es viable salvo que se empleen pretratamientos que aumenten la biodegradabilidad o se realice codigestión con otro sustrato. En este último caso, la chumbera (Opuntia maxima Mill.) ha resultado ser un sustrato idóneo para la codigestión con microalgas, aumentando la producción de biogás y metano hasta niveles superiores a 600 y 300 L kgSV-1, respectivamente. Por otro lado, el tratamiento de residuos generados tras la extracción de aminoácidos mediante digestión anaerobia es prometedor. Se obtuvieron elevados rendimientos de biogás y metano en las condiciones de operación óptimas (409 y 292 L kgSV-1, respectivamente). Aparte de la generación energética por medio el metano, que podría emplearse en la propia biorrefinería o venderse a la red eléctrica o de gas natural, reciclando el digerido y el CO2 del biogás se podría llegar a ahorrar alrededor del 30% del fertilizante mineral y el 25% del CO2 necesarios para el cultivo de nueva biomasa. Por lo tanto, la digestión anaerobia de los residuos de microalgas en un concepto de biorrefinería tiene un gran potencial y podría contribuir en gran medida al desarrollo de esta industria. Por último, una primera aproximación al tratamiento de residuos generados tras la extracción de lípidos muestra que éstos pueden ser empleados para la producción de biogás, como monosustrato, o en codigestión con glicerina, ya que son fácilmente biodegradables y el rendimiento potencial de metano puede alcanzar 218 LCH4 kgSV-1 y 262 LCH4 kg SV-1 en monodigestión o en codigestión con glicerina, respectivamente. ABSTRACT This PhD thesis explores the possibility of using microalgae, specifically the strain Scenedesmus, as substrate for biogas production through anaerobic digestion, as well as the residues generated after its use in different industrial processes. The use of microalgae for biofuels production is an emerging scientific issue. The possibility of producing biofuels from microalgae as a real alternative for fossil fuels is raising high expectations. There are several research projects on the conversion of microalgae to biogas; however, there is little knowledge about using anaerobic digestion for treating microalgae residues in a biorefinery scheme. These residues could be generated after the extraction of high value compounds (e.g. amino acids) or after the production of another biofuel (e.g. biodiesel). It is in this area in which this PhD thesis stands in terms of originality and innovation, since it has focused primarily on three possibilities: - The use of Scenedesmus sp. as an energy crop for biogas production. - Treatment of amino acid extracted Scenedesmus residues generated in a biorefinery. - Treatment of lipid extracted Scenedesmus residues generated in a biorefinery. The results obtained in this work show that the use of Scenedesmus as energy crop for biogas production is not viable. The application of pretreatments to increase biodegradability or the codigestion of Scenedesmus biomass with other substrate can improve the digestion process. In this latter case, prickly pear (Opuntia maxima Mill.) is an ideal substrate for its codigestion with microalgae, increasing biogas and methane yields up to more than 600 and 300 L kgVS-1, respectively. On the other hand, the treatment of residues generated after amino acid extraction through anaerobic digestion is promising. High biogas and methane yields were obtained (409 y 292 L kgVS-1, respectively). Besides the energy produced through methane, which could be used in the biorefinery or be sold to the power or natural gas grids, by recycling the digestate and the CO2 30% of fertilizer needs and 25% of CO2 needs could be saved to grow new microalgae biomass. Therefore, the anaerobic digestion of microalgae residues generated in biorefineries is promising and it could play an important role in the development of this industry. Finally, a first approach to the treatment of residues generated after lipid extraction showed that these residues could be used for the production of biogas, since they are highly biodegradable. The potential methane yield could reach 218 LCH4 kgVS-1 when they are monodigested, whereas the potential methane yield reached 262 LCH4 kgVS-1 when residues were codigested with residual glycerin.
Resumo:
En este trabajo se presenta un procedimiento para la generación de cartografía vegetal basada en la clasificación de imágenes de satélite aplicable a los ecosistemas tropicales. Esta técnica constituye una alternativa eficaz para generar mapas detallados y actualizados en estos ecosistemas.
Resumo:
Esta tesis doctoral está encuadrada dentro del marco general de la ingeniería biomédica aplicada al tratamiento de las enfermedades cardiovasculares, enfermedades que provocan alrededor de 1.9 millones (40%) de muertes al año en la Unión Europea. En este contexto surge el proyecto europeo SCATh-Smart Catheterization, cuyo objetivo principal es mejorar los procedimientos de cateterismo aórtico introduciendo nuevas tecnologías de planificación y navegación quirúrgica y minimizando el uso de fluoroscopía. En particular, esta tesis aborda el modelado y diagnóstico de aneurismas aórticos abdominales (AAA) y del trombo intraluminal (TIL), allí donde esté presente, así como la segmentación de estas estructuras en imágenes preoperatorias de RM. Los modelos físicos específicos del paciente, construidos a partir de imágenes médicas preoperatorias, tienen múltiples usos, que van desde la evaluación preoperatoria de estructuras anatómicas a la planificación quirúrgica para el guiado de catéteres. En el diagnóstico y tratamiento de AAA, los modelos físicos son útiles a la hora de evaluar diversas variables biomecánicas y fisiológicas de las estructuras vasculares. Existen múltiples técnicas que requieren de la generación de modelos físicos que representen la anatomía vascular. Una de las principales aplicaciones de los modelos físicos es el análisis de elementos finitos (FE). Las simulaciones de FE para AAA pueden ser específicas para el paciente y permiten modelar estados de estrés complejos, incluyendo los efectos provocados por el TIL. La aplicación de métodos numéricos de análisis tiene como requisito previo la generación de una malla computacional que representa la geometría de interés mediante un conjunto de elementos poliédricos, siendo los hexaédricos los que presentan mejores resultados. En las estructuras vasculares, generar mallas hexaédricas es un proceso especialmente exigente debido a la compleja anatomía 3D ramificada. La mayoría de los AAA se encuentran situados en la bifurcación de la arteria aorta en las arterias iliacas y es necesario modelar de manera fiel dicha bifurcación. En el caso de que la sangre se estanque en el aneurisma provocando un TIL, éste forma una estructura adyacente a la pared aórtica. De este modo, el contorno externo del TIL es el mismo que el contorno interno de la pared, por lo que las mallas resultantes deben reflejar esta particularidad, lo que se denomina como "mallas conformadas". El fin último de este trabajo es modelar las estructuras vasculares de modo que proporcionen nuevas herramientas para un mejor diagnóstico clínico, facilitando medidas de riesgo de rotura de la arteria, presión sistólica o diastólica, etc. Por tanto, el primer objetivo de esta tesis es diseñar un método novedoso y robusto para generar mallas hexaédricas tanto de la pared aórtica como del trombo. Para la identificación de estas estructuras se utilizan imágenes de resonancia magnética (RM). Deben mantenerse sus propiedades de adyacencia utilizando elementos de alta calidad, prestando especial atención al modelado de la bifurcación y a que sean adecuadas para el análisis de FE. El método tiene en cuenta la evolución de la línea central del vaso en el espacio tridimensional y genera la malla directamente a partir de las imágenes segmentadas, sin necesidad de reconstruir superficies triangulares. Con el fin de reducir la intervención del usuario en el proceso de generación de las mallas, es también objetivo de esta tesis desarrollar un método de segmentación semiautomática de las distintas estructuras de interés. Las principales contribuciones de esta tesis doctoral son: 1. El diseño, implementación y evaluación de un algoritmo de generación de mallas hexaédricas conformadas de la pared y el TIL a partir de los contornos segmentados en imágenes de RM. Se ha llevado a cabo una evaluación de calidad que determine su aplicabilidad a métodos de FE. Los resultados demuestran que el algoritmo desarrollado genera mallas conformadas de alta calidad incluso en la región de la bifurcación, que son adecuadas para su uso en métodos de análisis de FE. 2. El diseño, implementación y evaluación de un método de segmentación automático de las estructuras de interés. La luz arterial se segmenta de manera semiautomática utilizando un software disponible a partir de imágenes de RM con contraste. Los resultados de este proceso sirven de inicialización para la segmentación automática de las caras interna y externa de la pared aórtica utilizando métodos basado en modelos de textura y forma a partir de imágenes de RM sin contraste. Los resultados demuestran que el algoritmo desarrollado proporciona segmentaciones fieles de las distintas estructuras de interés. En conclusión, el trabajo realizado en esta tesis doctoral corrobora las hipótesis de investigación postuladas, y pretende servir como aportación para futuros avances en la generación de modelos físicos de geometrías biológicas. ABSTRACT The frame of this PhD Thesis is the biomedical engineering applied to the treatment of cardiovascular diseases, which cause around 1.9 million deaths per year in the European Union and suppose about 40% of deaths per year. In this context appears the European project SCATh-Smart Catheterization. The main objective of this project is creating a platform which improves the navigation of catheters in aortic catheterization minimizing the use of fluoroscopy. In the framework of this project, the specific field of this PhD Thesis is the diagnosis and modeling of abdominal aortic aneurysm (AAAs) and the intraluminal thrombus (ILT) whenever it is present. Patient-specific physical models built from preoperative imaging are becoming increasingly important in the area of minimally invasive surgery. These models can be employed for different purposes, such as the preoperatory evaluation of anatomic structures or the surgical planning for catheter guidance. In the specific case of AAA diagnosis and treatment, physical models are especially useful for evaluating pressures over vascular structures. There are multiple techniques that require the generation of physical models which represent the target anatomy. Finite element (FE) analysis is one the principal applications for physical models. FE simulations for AAA may be patient-specific and allow modeling biomechanical and physiological variables including those produced by ILT, and also the segmentation of those anatomical structures in preoperative MR images. Applying numeric methods requires the generation of a proper computational mesh. These meshes represent the patient anatomy using a set of polyhedral elements, with hexahedral elements providing better results. In the specific case of vascular structures, generating hexahedral meshes is a challenging task due to the complex 3D branching anatomy. Each patient’s aneurysm is unique, characterized by its location and shape, and must be accurately represented for subsequent analyses to be meaningful. Most AAAs are located in the region where the aorta bifurcates into the iliac arteries and it is necessary to model this bifurcation precisely and reliably. If blood stagnates in the aneurysm and forms an ILT, it exists as a conforming structure with the aortic wall, i.e. the ILT’s outer contour is the same as the wall’s inner contour. Therefore, resulting meshes must also be conforming. The main objective of this PhD Thesis is designing a novel and robust method for generating conforming hexahedral meshes for the aortic wall and the thrombus. These meshes are built using largely high-quality elements, especially at the bifurcation, that are suitable for FE analysis of tissue stresses. The method accounts for the evolution of the vessel’s centerline which may develop outside a single plane, and generates the mesh directly from segmented images without the requirement to reconstruct triangular surfaces. In order to reduce the user intervention in the mesh generation process is also a goal of this PhD. Thesis to develop a semiautomatic segmentation method for the structures of interest. The segmentation is performed from magnetic resonance image (MRI) sequences that have tuned to provide high contrast for the arterial tissue against the surrounding soft tissue, so that we determine the required information reliably. The main contributions of this PhD Thesis are: 1. The design, implementation and evaluation of an algorithm for generating hexahedral conforming meshes of the arterial wall and the ILT from the segmented contours. A quality inspection has been applied to the meshes in order to determine their suitability for FE methods. Results show that the developed algorithm generates high quality conforming hexahedral meshes even at the bifurcation region. Thus, these meshes are suitable for FE analysis. 2. The design, implementation and evaluation of a semiautomatic segmentation method for the structures of interest. The lumen is segmented in a semiautomatic way from contrast filled MRI using an available software. The results obtained from this process are used to initialize the automatic segmentation of the internal and external faces of the aortic wall. These segmentations are performed by methods based on texture and shape models from MRI with no contrast. The results show that the algorithm provides faithful segmentations of the structures of interest requiring minimal user intervention. In conclusion, the work undertaken in this PhD. Thesis verifies the investigation hypotheses. It intends to serve as basis for future physical model generation of proper biological anatomies used by numerical methods.
Resumo:
El problema de la interpolación polinómica de Birkhoff, como es conocido, no siempre admite solución. Se presenta un método como alternativa a este tipo de problemas para la obtención de interpolantes con unas condiciones de continuidad determinadas y en el cual el criterio de aproximación es el de minimización de un cierto funcional real, utilizando el método de los elementos finitos. Se analiza la eficiencia del método en diversos ejemplos de aplicación 1-0 y 2-D.
Resumo:
En numerosas ocasiones, la preparación de la entrada de datos de los programas existentes hoy en día, para cálculo de estructuras por computador (STRESS, STRUDL, NASTRAN etc.), resulta un problema costoso por el elevado número de horas/hombre que requiere y el incremento de la probabilidad de aparición de errores en los datos de entrada. El objetivo del presente programa GEDE (Generación de la Entrada de Datos de Emparrillado) consiste en obtener automáticamente los datos de entrada para un programa general de cálculo de emparrillado plano, a partir de un reducido número de datos básicos. Indudablemente, la parte de este programa consistente en la discretización de una estructura real en otra formada por nudos y barras, puede ser utilizada por otros tipos de cálculos estructurales diferentes del emparrillado. El presente programa GEDE, se ha implementado para su utilización en conjunción con un programa particular de cálculo EMPR1 (desarrollado por los autores), si bien su adaptación a otro tipo de programas de emparrillado es inmediata. El generar automáticamente gran parte de los datos supone una pérdida de generalidad, que puede implicar a veces, una limitación en cuanto a la tipología de los emparrillados a tratar. Estas limitaciones se discuten en detalle en la obra
Resumo:
El modelo energético actual está marcado por el predominio de los combustibles fósiles y el intento de introducir energías renovables para evolucionar hacia un modelo más sostenible. Entre las distintas alternativas, las plantas híbridas solar-fósil parecen una solución interesante ya que combinan las ventajas de las dos fuentes de energía. Hasta el momento, las líneas de investigación y análisis de plantas híbridas se ha centrado en el acoplamiento de tecnología solar a plantas o ciclos de potencia operativos. Este enfoque, tiene sentido en un marco como el actual, donde las plantas híbridas operativas no disponen de sistema de almacenamiento y donde se intenta reducir los costes, acoplando tecnología solar a ciclos de potencia existentes. Sin embargo, resta generalidad al análisis de la hibridación, imponiendo el diseño de la planta. Resulta interesante por tanto, realizar estudios que analicen la hibridación desde un punto de vista más general y que permitan a la propia planta, optimizar su diseño. Este estudio pretende aportar conocimiento en esta línea, analizando distintas posibilidades de diseño de futuras plantas híbridas operando en modo Fuel saving mode (FSM). Para ello, se ha realizado un estudio general y sistemático de distintas topologías de plantas híbridas, las cuales consideran como ciclo de potencia el ciclo Brayton y el ciclo Rankine. Para aportar la máxima generalidad posible, se han considerado un amplio abanico de condiciones operativas en ambos bloques. Como aporte al resto de estudios, éste estudio analiza la hibridación desde el punto de vista del bloque termosolar lo que indirectamente permite analizar el funcionamiento de la planta en modo híbrido. Para ello, se han identificado dos casos de diseño: 1. Caso A: Diseño de planta híbrida a partir de una planta o bloque convencional 2. Caso B: Diseño de planta híbrida a partir de una tecnología solar determinada La distinción entre casos de diseño, permite por un lado, establecer el potencial de la hibridación en las dos situaciones que se pueden plantear en la práctica estableciendo además, una base comparativa de resultados y por otro lado, identificar las condiciones de funcionamiento óptimas en las que diseñar la planta. Como conclusión principal, el estudio realizado demuestra que las condiciones de funcionamiento que optimizan la planta híbrida pueden diferir dependiendo del caso de diseño que se considere, lo que implica que el funcionamiento de la planta no tiene porqué estar optimizado simultáneamente para sus dos modos de funcionamiento (modo fósil y modo híbrido). Por tanto, se considera que el diseño final de la planta híbrida debería estar en función del tiempo en que la planta opera en cada uno de los modos, es decir, del Solar Capacity Factor (SCF). Además, el estudio realizado identifica dos situaciones concretas para las cuales la hibridación estaría desaconsejada desde un punto de vista energético. Aunque los resultados obtenidos son sólo una primera aproximación del diseño final de la planta híbrida, proporcionan unas directrices a partir de la cuales iniciar su desarrollo. Esto es especialmente interesante de cara a políticas estratégicas, donde en función de los objetivos vigentes o que se puedan plantear, se puede modificar el diseño de la planta en su estructura básica.
Resumo:
La nanotecnología es un área de investigación de reciente creación que trata con la manipulación y el control de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. A escala nanométrica, los materiales exhiben fenómenos físicos, químicos y biológicos singulares, muy distintos a los que manifiestan a escala convencional. En medicina, los compuestos miniaturizados a nanoescala y los materiales nanoestructurados ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, así como una mejora en la focalización del medicamento hacia la diana terapéutica, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales (desde el nivel de población hasta el nivel de célula) y, por tanto, cualquier flujo de trabajo en nanomedicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Desafortunadamente, la informática biomédica todavía no ha proporcionado el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, ni ha adaptado sus métodos y herramientas a este nuevo campo de investigación. En este contexto, la nueva área de la nanoinformática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Las observaciones expuestas previamente determinan el contexto de esta tesis doctoral, la cual se centra en analizar el dominio de la nanomedicina en profundidad, así como en el desarrollo de estrategias y herramientas para establecer correspondencias entre las distintas disciplinas, fuentes de datos, recursos computacionales y técnicas orientadas a la extracción de información y la minería de textos, con el objetivo final de hacer uso de los datos nanomédicos disponibles. El autor analiza, a través de casos reales, alguna de las tareas de investigación en nanomedicina que requieren o que pueden beneficiarse del uso de métodos y herramientas nanoinformáticas, ilustrando de esta forma los inconvenientes y limitaciones actuales de los enfoques de informática biomédica a la hora de tratar con datos pertenecientes al dominio nanomédico. Se discuten tres escenarios diferentes como ejemplos de actividades que los investigadores realizan mientras llevan a cabo su investigación, comparando los contextos biomédico y nanomédico: i) búsqueda en la Web de fuentes de datos y recursos computacionales que den soporte a su investigación; ii) búsqueda en la literatura científica de resultados experimentales y publicaciones relacionadas con su investigación; iii) búsqueda en registros de ensayos clínicos de resultados clínicos relacionados con su investigación. El desarrollo de estas actividades requiere el uso de herramientas y servicios informáticos, como exploradores Web, bases de datos de referencias bibliográficas indexando la literatura biomédica y registros online de ensayos clínicos, respectivamente. Para cada escenario, este documento proporciona un análisis detallado de los posibles obstáculos que pueden dificultar el desarrollo y el resultado de las diferentes tareas de investigación en cada uno de los dos campos citados (biomedicina y nanomedicina), poniendo especial énfasis en los retos existentes en la investigación nanomédica, campo en el que se han detectado las mayores dificultades. El autor ilustra cómo la aplicación de metodologías provenientes de la informática biomédica a estos escenarios resulta efectiva en el dominio biomédico, mientras que dichas metodologías presentan serias limitaciones cuando son aplicadas al contexto nanomédico. Para abordar dichas limitaciones, el autor propone un enfoque nanoinformático, original, diseñado específicamente para tratar con las características especiales que la información presenta a nivel nano. El enfoque consiste en un análisis en profundidad de la literatura científica y de los registros de ensayos clínicos disponibles para extraer información relevante sobre experimentos y resultados en nanomedicina —patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.—, seguido del desarrollo de mecanismos para estructurar y analizar dicha información automáticamente. Este análisis concluye con la generación de un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento y de test anotados manualmente—, el cual ha sido aplicado a la clasificación de registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nanodrogas y nanodispositivos de aquellos enfocados a testear productos farmacéuticos tradicionales. El presente trabajo pretende proporcionar los métodos necesarios para organizar, depurar, filtrar y validar parte de los datos nanomédicos existentes en la actualidad a una escala adecuada para la toma de decisiones. Análisis similares para otras tareas de investigación en nanomedicina ayudarían a detectar qué recursos nanoinformáticos se requieren para cumplir los objetivos actuales en el área, así como a generar conjunto de datos de referencia, estructurados y densos en información, a partir de literatura y otros fuentes no estructuradas para poder aplicar nuevos algoritmos e inferir nueva información de valor para la investigación en nanomedicina. ABSTRACT Nanotechnology is a research area of recent development that deals with the manipulation and control of matter with dimensions ranging from 1 to 100 nanometers. At the nanoscale, materials exhibit singular physical, chemical and biological phenomena, very different from those manifested at the conventional scale. In medicine, nanosized compounds and nanostructured materials offer improved drug targeting and efficacy with respect to traditional formulations, and reveal novel diagnostic and therapeutic properties. Nevertheless, the complexity of information at the nano level is much higher than the complexity at the conventional biological levels (from populations to the cell). Thus, any nanomedical research workflow inherently demands advanced information management. Unfortunately, Biomedical Informatics (BMI) has not yet provided the necessary framework to deal with such information challenges, nor adapted its methods and tools to the new research field. In this context, the novel area of nanoinformatics aims to build new bridges between medicine, nanotechnology and informatics, allowing the application of computational methods to solve informational issues at the wide intersection between biomedicine and nanotechnology. The above observations determine the context of this doctoral dissertation, which is focused on analyzing the nanomedical domain in-depth, and developing nanoinformatics strategies and tools to map across disciplines, data sources, computational resources, and information extraction and text mining techniques, for leveraging available nanomedical data. The author analyzes, through real-life case studies, some research tasks in nanomedicine that would require or could benefit from the use of nanoinformatics methods and tools, illustrating present drawbacks and limitations of BMI approaches to deal with data belonging to the nanomedical domain. Three different scenarios, comparing both the biomedical and nanomedical contexts, are discussed as examples of activities that researchers would perform while conducting their research: i) searching over the Web for data sources and computational resources supporting their research; ii) searching the literature for experimental results and publications related to their research, and iii) searching clinical trial registries for clinical results related to their research. The development of these activities will depend on the use of informatics tools and services, such as web browsers, databases of citations and abstracts indexing the biomedical literature, and web-based clinical trial registries, respectively. For each scenario, this document provides a detailed analysis of the potential information barriers that could hamper the successful development of the different research tasks in both fields (biomedicine and nanomedicine), emphasizing the existing challenges for nanomedical research —where the major barriers have been found. The author illustrates how the application of BMI methodologies to these scenarios can be proven successful in the biomedical domain, whilst these methodologies present severe limitations when applied to the nanomedical context. To address such limitations, the author proposes an original nanoinformatics approach specifically designed to deal with the special characteristics of information at the nano level. This approach consists of an in-depth analysis of the scientific literature and available clinical trial registries to extract relevant information about experiments and results in nanomedicine —textual patterns, common vocabulary, experiment descriptors, characterization parameters, etc.—, followed by the development of mechanisms to automatically structure and analyze this information. This analysis resulted in the generation of a gold standard —a manually annotated training or reference set—, which was applied to the automatic classification of clinical trial summaries, distinguishing studies focused on nanodrugs and nanodevices from those aimed at testing traditional pharmaceuticals. The present work aims to provide the necessary methods for organizing, curating and validating existing nanomedical data on a scale suitable for decision-making. Similar analysis for different nanomedical research tasks would help to detect which nanoinformatics resources are required to meet current goals in the field, as well as to generate densely populated and machine-interpretable reference datasets from the literature and other unstructured sources for further testing novel algorithms and inferring new valuable information for nanomedicine.
Resumo:
En este documento se detalla, la planificación y elaboración de un paquete que respeta el estándar S4 de programación en lenguaje R. El paquete consiste en una serie de métodos y clases para la generación de exámenes tipos test y soluciones a partir de un archivo xls, que hace las funciones de una base de datos. El diseño propuesto está orientado a objetos y desarrolla un conjunto de clases que representan los contenidos de una prueba de evaluación tipo test: enunciados, peguntas y respuestas. Se ha realizado una implementación sencilla de un prototipo con las funciones básicas necesarias para generar los tests. Además se ha generado la documentación necesaria para crear el paquete, esto significa que cada método tiene una página de ayuda, que se podrá consultar desde un terminal con R, dicha documentación incluye ejemplos de ejecución de cada método.---ABSTRACT---In this document is detailed the elaboration and development of a package that meets the standard S4 of programming language R. This package consists of a group of methods and classes used for the generation of test exams and their solutions starting from a xls format file wich plays the role of a data base at the same time. These classes have been grouped in a way that the user could have a complete and easy vision of them. This division has been done by using data storage and functions whose tasks are more or less the same. Furthermore, the necessary documentation to create this package has also been generated, that means that every method has a help page wich can be called from a R terminal if necessary. This documentation has examples of the execution of every method.
Resumo:
Los análisis de los transitorios y situaciones accidentales de los reactores de agua ligera requieren el uso de simuladores y códigos a nivel de núcleo completo con modelos de cinética 3D. Normalmente estos códigos utilizan como datos de entrada librerías de secciones eficaces compiladas en tablas multidimensionales. En este caso, los errores de interpolación, originados a la hora de computar los valores de las secciones eficaces a partir de los puntos de la tabla, son una fuente de incertidumbre en el cálculo del parámetro k-efectiva y deben de tenerse en cuenta. Estos errores dependen de la estructura de la malla de puntos que cubre el dominio de variación de cada una de las variables termo-hidráulicas en las que se tabula la librería de secciones eficaces, y pueden ser minimizados con la elección de una malla adecuada, a diferencia de los errores debidos a los datos nucleares. En esta ponencia se evalúa el impacto que tiene una determinada malla sobre un transitorio en un reactor PWR consistente en la expulsión de una barra de control. Para ello se han usado los códigos neutrónico y termo-hidráulico acoplados COBAYA3/COBRA-TF. Con este objetivo se ha escogido el OECD/NEA PWR MOX/UO2 rod ejection transient benchmark ya que proporciona unas composiciones isotópicas y unas configuraciones geométricas definidas que permiten el empleo de códigos lattice para generar librerías propias. El código de transporte utilizado para ello ha sido el código APOLLO2.8. Así mismo, ya que se proporcionaba también una librería como parte de las especificaciones, los efectos debidos a la generación de éstas sobre la respuesta del transitorio son analizados. Los resultados muestran grandes discrepancias al emplear la librería del benchmark o las librerías propias comparándolas con las soluciones de otros participantes. El origen de estas discrepancias se halla en las secciones eficaces nodales proporcionadas en el benchmark.