37 resultados para Catalizadores heterogéneos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La artroplastia de cadera se considera uno de los mayores avances quirúrgicos de la Medicina. La aplicación de esta técnica de Traumatología se ha incrementado notablemente en los últimos anos, a causa principalmente del progresivo incremento de la esperanza de vida. En efecto, con la edad aumentan los problemas de artrosis y osteoporosis, enfermedades típicas de las articulaciones y de los huesos que requieren en muchos casos la sustitución protésica total o parcial de la articulación. El buen comportamiento funcional de una prótesis depende en gran medida de la estabilidad primaria, es decir, el correcto anclaje de la prótesis en el momento de su implantación. Las prótesis no cementadas basan su éxito a largo plazo en la osteointegración que tiene lugar entre el material protésico y el tejido óseo, y para lograrla es imprescindible conseguir unas buenas condiciones de estabilidad primaria. El aflojamiento aséptico es la principal causa de fallo de artroplastia total de cadera. Este es un fenómeno en el que, debido a complejas interacciones de factores mecánicos y biológicos, se producen movimientos relativos que comprometen la funcionalidad del implante. La minimización de los correspondientes danos depende en gran medida de la detección precoz del aflojamiento. Para lograr la detección temprana del aflojamiento aséptico del vástago femoral se han ensayado diferentes técnicas, tanto in vivo como in vitro: análisis numéricos y técnicas experimentales basadas en sensores de movimientos provocados por cargas transmitidas natural o artificialmente, tales como impactos o vibraciones de distintas frecuencias. Los montajes y procedimientos aplicados son heterogéneos y, en muchas ocasiones, complejos y costosos, no existiendo acuerdo sobre una técnica simple y eficaz de aplicación general. Asimismo, en la normativa vigente que regula las condiciones que debe cumplir una prótesis previamente a su comercialización, no hay ningún apartado referido específicamente a la evaluación de la bondad del diseño del vástago femoral con respecto a la estabilidad primaria. El objetivo de esta tesis es desarrollar una metodología para el análisis, in vitro, de la estabilidad de un vástago femoral implantado, a fin de poder evaluar las técnicas de implantación y los diferentes diseños de prótesis previamente a su oferta en el mercado. Además se plantea como requisito fundamental que el método desarrollado sea sencillo, reversible, repetible, no destructivo, con control riguroso de parámetros (condiciones de contorno de cargas y desplazamientos) y con un sistema de registro e interpretación de resultados rápido, fiable y asequible. Como paso previo, se ha realizado un análisis cualitativo del problema de contacto en la interfaz hueso-vástago aplicando una técnica optomecánica del campo continuo (fotoelasticidad). Para ello se han fabricado tres modelos en 2D del conjunto hueso-vástago, simulando tres tipos de contactos en la interfaz: contacto sin adherencia y con holgura, contacto sin adherencia y sin holgura, y contacto con adherencia y homogéneo. Aplicando la misma carga a cada modelo, y empleando la técnica de congelación de tensiones, se han visualizado los correspondientes estados tensionales, siendo estos más severos en el modelo de unión sin adherencia, como cabía esperar. En todo caso, los resultados son ilustrativos de la complejidad del problema de contacto y confirman la conveniencia y necesidad de la vía experimental para el estudio del problema. Seguidamente se ha planteado un ensayo dinámico de oscilaciones libres con instrumentación de sensores resistivos tipo galga extensométrica. Las muestras de ensayo han sido huesos fémur en todas sus posibles variantes: modelos simplificados, hueso sintético normalizado y hueso de cadáver, seco y fresco. Se ha diseñado un sistema de empotramiento del extremo distal de la muestra (fémur) con control riguroso de las condiciones de anclaje. La oscilación libre de la muestra se ha obtenido mediante la liberación instantánea de una carga estética determinada y aplicada previamente, bien con una maquina de ensayo o bien por gravedad. Cada muestra se ha instrumentado con galgas extensométricas convencionales cuya señal se ha registrado con un equipo dinámico comercial. Se ha aplicado un procedimiento de tratamiento de señal para acotar, filtrar y presentar las respuestas de los sensores en el dominio del tiempo y de la frecuencia. La interpretación de resultados es de tipo comparativo: se aplica el ensayo a una muestra de fémur Intacto que se toma de referencia, y a continuación se repite el ensayo sobre la misma muestra con una prótesis implantada; la comparación de resultados permite establecer conclusiones inmediatas sobre los efectos de la implantación de la prótesis. La implantación ha sido realizada por un cirujano traumatólogo utilizando las mismas técnicas e instrumental empleadas en el quirófano durante la práctica clínica real, y se ha trabajado con tres vástagos femorales comerciales. Con los resultados en el dominio del tiempo y de la frecuencia de las distintas aplicaciones se han establecido conclusiones sobre los siguientes aspectos: Viabilidad de los distintos tipos de muestras sintéticas: modelos simplificados y fémur sintético normalizado. Repetibilidad, linealidad y reversibilidad del ensayo. Congruencia de resultados con los valores teóricos deducidos de la teoría de oscilaciones libres de barras. Efectos de la implantación de tallos femorales en la amplitud de las oscilaciones, amortiguamiento y frecuencias de oscilación. Detección de armónicos asociados a la micromovilidad. La metodología se ha demostrado apta para ser incorporada a la normativa de prótesis, es de aplicación universal y abre vías para el análisis de la detección y caracterización de la micromovilidad de una prótesis frente a las cargas de servicio. ABSTRACT Total hip arthroplasty is considered as one of the greatest surgical advances in medicine. The application of this technique on Traumatology has increased significantly in recent years, mainly due to the progressive increase in life expectancy. In fact, advanced age increases osteoarthritis and osteoporosis problems, which are typical diseases of joints and bones, and in many cases require full or partial prosthetic replacement on the joint. Right functional behavior of prosthesis is highly dependent on the primary stability; this means it depends on the correct anchoring of the prosthesis at the time of implantation. Uncemented prosthesis base their long-term success on the quality of osseointegration that takes place between the prosthetic material and bone tissue, and to achieve this good primary stability conditions is mandatory. Aseptic loosening is the main cause of failure in total hip arthroplasty. This is a phenomenon in which relative movements occur, due to complex interactions of mechanical and biological factors, and these micromovements put the implant functionality at risk. To minimize possible damage, it greatly depends on the early detection of loosening. For this purpose, various techniques have been tested both in vivo and in vitro: numerical analysis and experimental techniques based on sensors for movements caused by naturally or artificially transmitted loads, such as impacts or vibrations at different frequencies. The assemblies and methods applied are heterogeneous and, in many cases, they are complex and expensive, with no agreement on the use of a simple and effective technique for general purposes. Likewise, in current regulations for governing the conditions to be fulfilled by the prosthesis before going to market, there is no specific section related to the evaluation of the femoral stem design in relation to primary stability. The aim of this thesis is to develop a in vitro methodology for analyzing the stability of an implanted femoral stem, in order to assess the implantation techniques and the different prosthesis designs prior to its offer in the market. We also propose as a fundamental requirement that the developed testing method should be simple, reversible, repeatable, non-destructive, with close monitoring of parameters (boundary conditions of loads and displacements) and with the availability of a register system to record and interpret results in a fast, reliable and affordable manner. As a preliminary step, we have performed a qualitative analysis of the contact problems in the bone-stem interface, through the application of a continuous field optomechanical technique (photoelasticity). For this proposal three 2D models of bone–stem set, has been built simulating three interface contact types: loosened an unbounded contact, unbounded and fixed contact, and bounded homogeneous contact. By means of applying the same load to each model, and using the stress freezing technique, it has displayed the corresponding stress states, being more severe as expected, in the unbounded union model. In any case, the results clearly show the complexity of the interface contact problem, and they confirm the need for experimental studies about this problem. Afterward a free oscillation dynamic test has been done using resistive strain gauge sensors. Test samples have been femur bones in all possible variants: simplified models, standardized synthetic bone, and dry and cool cadaveric bones. An embedding system at the distal end of the sample with strong control of the anchoring conditions has been designed. The free oscillation of the sample has been obtained by the instantaneous release of a static load, which was previously determined and applied to the sample through a testing machine or using the gravity force. Each sample was equipped with conventional strain gauges whose signal is registered with a marketed dynamic equipment. Then, it has applied a signal processing procedure to delimit, filter and present the time and frequency response signals from the sensors. Results are interpreted by comparing different trials: the test is applied to an intact femur sample which is taken as a reference, and then this test is repeated over the same sample with an implanted prosthesis. From comparison between results, immediate conclusions about the effects of the implantation of the prosthesis can be obtained. It must be said that the implementation has been made by an expert orthopedic surgeon using the same techniques and instruments as those used in clinical surgery. He has worked with three commercial femoral stems. From the results obtained in the time and frequency domains for the different applications the following conclusions have been established: Feasibility of the different types of synthetic samples: simplified models and standardized synthetic femur. Repeatability, linearity and reversibility of the testing method. Consistency of results with theoretical values deduced from the bars free oscillations theory. Effects of introduction of femoral stems in the amplitude, damping and frequencies of oscillations Detection of micromobility associated harmonics. This methodology has been proved suitable to be included in the standardization process of arthroplasty prosthesis, it is universally applicable and it allows establishing new methods for the analysis, detection and characterization of prosthesis micromobility due to functional loads.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

José Antonio Corrales y Ramón Vázquez Molezún proyectaron en 1966 la vivienda para la familia de Jesús Huarte, uno de los principales empresarios y coleccionistas de arte de España. El proyecto de la Casa Huarte nace del lugar donde se inserta mediante un método no convencional: se plantea desde la negación de su contexto físico. Es un proyecto defensivo, se amuralla a la calle, ruidosa y hostil, y se abre a unos patios interiores creando un mundo interior idílico aislado visual y acústicamente del tráfico de la calle. La intervención cuestionaba los planteamientos de la casa-patio compacta del Movimiento Moderno, cuyo paradigma fueron los distintos proyectos de casa-patio de Mies y su prototipo construido: la Casa Sert en Cambridge, a la vez que se alimentaba de la herencia clásica. Corrales y Molezún adaptaron a la modernidad tradicionales intervenciones en el paisaje resueltas mediante el uso de patios, desde la secuencia de patios heterogéneos de la arquitectura pompeyana y otomana a la relación del espacio interior con el inmediatamente exterior de la arquitectura tradicional japonesa. El resultado fue una novedosa casa-patio decididamente moderna que aportó un nuevo concepto de intervención en el paisaje.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta Tesis se presentan dos líneas de investigación relacionadas y que contribuyen a las áreas de Interacción Hombre-Tecnología (o Máquina; siglas en inglés: HTI o HMI), lingüística computacional y evaluación de la experiencia del usuario. Las dos líneas en cuestión son el diseño y la evaluación centrada en el usuario de sistemas de Interacción Hombre-Máquina avanzados. En la primera parte de la Tesis (Capítulos 2 a 4) se abordan cuestiones fundamentales del diseño de sistemas HMI avanzados. El Capítulo 2 presenta una panorámica del estado del arte de la investigación en el ámbito de los sistemas conversacionales multimodales, con la que se enmarca el trabajo de investigación presentado en el resto de la Tesis. Los Capítulos 3 y 4 se centran en dos grandes aspectos del diseño de sistemas HMI: un gestor del diálogo generalizado para tratar la Interacción Hombre-Máquina multimodal y sensible al contexto, y el uso de agentes animados personificados (ECAs) para mejorar la robustez del diálogo, respectivamente. El Capítulo 3, sobre gestión del diálogo, aborda el tratamiento de la heterogeneidad de la información proveniente de las modalidades comunicativas y de los sensores externos. En este capítulo se propone, en un nivel de abstracción alto, una arquitectura para la gestión del diálogo con influjos heterogéneos de información, apoyándose en el uso de State Chart XML. En el Capítulo 4 se presenta una contribución a la representación interna de intenciones comunicativas, y su traducción a secuencias de gestos a ejecutar por parte de un ECA, diseñados específicamente para mejorar la robustez en situaciones de diálogo críticas que pueden surgir, por ejemplo, cuando se producen errores de entendimiento en la comunicación entre el usuario humano y la máquina. Se propone, en estas páginas, una extensión del Functional Mark-up Language definido en el marco conceptual SAIBA. Esta extensión permite representar actos comunicativos que realizan intenciones del emisor (la máquina) que no se pretende sean captadas conscientemente por el receptor (el usuario humano), pero con las que se pretende influirle a éste e influir el curso del diálogo. Esto se consigue mediante un objeto llamado Base de Intenciones Comunicativas (en inglés, Communication Intention Base, o CIB). La representación en el CIB de intenciones “no claradas” además de las explícitas permite la construcción de actos comunicativos que realizan simultáneamente varias intenciones comunicativas. En el Capítulo 4 también se describe un sistema experimental para el control remoto (simulado) de un asistente domótico, con autenticación de locutor para dar acceso, y con un ECA en el interfaz de cada una de estas tareas. Se incluye una descripción de las secuencias de comportamiento verbal y no verbal de los ECAs, que fueron diseñados específicamente para determinadas situaciones con objeto de mejorar la robustez del diálogo. Los Capítulos 5 a 7 conforman la parte de la Tesis dedicada a la evaluación. El Capítulo 5 repasa antecedentes relevantes en la literatura de tecnologías de la información en general, y de sistemas de interacción hablada en particular. Los principales antecedentes en el ámbito de la evaluación de la interacción sobre los cuales se ha desarrollado el trabajo presentado en esta Tesis son el Technology Acceptance Model (TAM), la herramienta Subjective Assessment of Speech System Interfaces (SASSI), y la Recomendación P.851 de la ITU-T. En el Capítulo 6 se describen un marco y una metodología de evaluación aplicados a la experiencia del usuario con sistemas HMI multimodales. Se desarrolló con este propósito un novedoso marco de evaluación subjetiva de la calidad de la experiencia del usuario y su relación con la aceptación por parte del mismo de la tecnología HMI (el nombre dado en inglés a este marco es Subjective Quality Evaluation Framework). En este marco se articula una estructura de clases de factores subjetivos relacionados con la satisfacción y aceptación por parte del usuario de la tecnología HMI propuesta. Esta estructura, tal y como se propone en la presente tesis, tiene dos dimensiones ortogonales. Primero se identifican tres grandes clases de parámetros relacionados con la aceptación por parte del usuario: “agradabilidad ” (likeability: aquellos que tienen que ver con la experiencia de uso, sin entrar en valoraciones de utilidad), rechazo (los cuales sólo pueden tener una valencia negativa) y percepción de utilidad. En segundo lugar, este conjunto clases se reproduce para distintos “niveles, o focos, percepción del usuario”. Éstos incluyen, como mínimo, un nivel de valoración global del sistema, niveles correspondientes a las tareas a realizar y objetivos a alcanzar, y un nivel de interfaz (en los casos propuestos en esta tesis, el interfaz es un sistema de diálogo con o sin un ECA). En el Capítulo 7 se presenta una evaluación empírica del sistema descrito en el Capítulo 4. El estudio se apoya en los mencionados antecedentes en la literatura, ampliados con parámetros para el estudio específico de los agentes animados (los ECAs), la auto-evaluación de las emociones de los usuarios, así como determinados factores de rechazo (concretamente, la preocupación por la privacidad y la seguridad). También se evalúa el marco de evaluación subjetiva de la calidad propuesto en el capítulo anterior. Los análisis de factores efectuados revelan una estructura de parámetros muy cercana conceptualmente a la división de clases en utilidad-agradabilidad-rechazo propuesta en dicho marco, resultado que da cierta validez empírica al marco. Análisis basados en regresiones lineales revelan estructuras de dependencias e interrelación entre los parámetros subjetivos y objetivos considerados. El efecto central de mediación, descrito en el Technology Acceptance Model, de la utilidad percibida sobre la relación de dependencia entre la intención de uso y la facilidad de uso percibida, se confirma en el estudio presentado en la presente Tesis. Además, se ha encontrado que esta estructura de relaciones se fortalece, en el estudio concreto presentado en estas páginas, si las variables consideradas se generalizan para cubrir más ampliamente las categorías de agradabilidad y utilidad contempladas en el marco de evaluación subjetiva de calidad. Se ha observado, asimismo, que los factores de rechazo aparecen como un componente propio en los análisis de factores, y además se distinguen por su comportamiento: moderan la relación entre la intención de uso (que es el principal indicador de la aceptación del usuario) y su predictor más fuerte, la utilidad percibida. Se presentan también resultados de menor importancia referentes a los efectos de los ECAs sobre los interfaces de los sistemas de diálogo y sobre los parámetros de percepción y las valoraciones de los usuarios que juegan un papel en conformar su aceptación de la tecnología. A pesar de que se observa un rendimiento de la interacción dialogada ligeramente mejor con ECAs, las opiniones subjetivas son muy similares entre los dos grupos experimentales (uno interactuando con un sistema de diálogo con ECA, y el otro sin ECA). Entre las pequeñas diferencias encontradas entre los dos grupos destacan las siguientes: en el grupo experimental sin ECA (es decir, con interfaz sólo de voz) se observó un efecto más directo de los problemas de diálogo (por ejemplo, errores de reconocimiento) sobre la percepción de robustez, mientras que el grupo con ECA tuvo una respuesta emocional más positiva cuando se producían problemas. Los ECAs parecen generar inicialmente expectativas más elevadas en cuanto a las capacidades del sistema, y los usuarios de este grupo se declaran más seguros de sí mismos en su interacción. Por último, se observan algunos indicios de efectos sociales de los ECAs: la “amigabilidad ” percibida los ECAs estaba correlada con un incremento la preocupación por la seguridad. Asimismo, los usuarios del sistema con ECAs tendían más a culparse a sí mismos, en lugar de culpar al sistema, de los problemas de diálogo que pudieran surgir, mientras que se observó una ligera tendencia opuesta en el caso de los usuarios del sistema con interacción sólo de voz. ABSTRACT This Thesis presents two related lines of research work contributing to the general fields of Human-Technology (or Machine) Interaction (HTI, or HMI), computational linguistics, and user experience evaluation. These two lines are the design and user-focused evaluation of advanced Human-Machine (or Technology) Interaction systems. The first part of the Thesis (Chapters 2 to 4) is centred on advanced HMI system design. Chapter 2 provides a background overview of the state of research in multimodal conversational systems. This sets the stage for the research work presented in the rest of the Thesis. Chapers 3 and 4 focus on two major aspects of HMI design in detail: a generalised dialogue manager for context-aware multimodal HMI, and embodied conversational agents (ECAs, or animated agents) to improve dialogue robustness, respectively. Chapter 3, on dialogue management, deals with how to handle information heterogeneity, both from the communication modalities or from external sensors. A highly abstracted architectural contribution based on State Chart XML is proposed. Chapter 4 presents a contribution for the internal representation of communication intentions and their translation into gestural sequences for an ECA, especially designed to improve robustness in critical dialogue situations such as when miscommunication occurs. We propose an extension of the functionality of Functional Mark-up Language, as envisaged in much of the work in the SAIBA framework. Our extension allows the representation of communication acts that carry intentions that are not for the interlocutor to know of, but which are made to influence him or her as well as the flow of the dialogue itself. This is achieved through a design element we have called the Communication Intention Base. Such r pr s ntation of “non- clar ” int ntions allows th construction of communication acts that carry several communication intentions simultaneously. Also in Chapter 4, an experimental system is described which allows (simulated) remote control to a home automation assistant, with biometric (speaker) authentication to grant access, featuring embodied conversation agents for each of the tasks. The discussion includes a description of the behavioural sequences for the ECAs, which were designed for specific dialogue situations with particular attention given to the objective of improving dialogue robustness. Chapters 5 to 7 form the evaluation part of the Thesis. Chapter 5 reviews evaluation approaches in the literature for information technologies, as well as in particular for speech-based interaction systems, that are useful precedents to the contributions of the present Thesis. The main evaluation precedents on which the work in this Thesis has built are the Technology Acceptance Model (TAM), the Subjective Assessment of Speech System Interfaces (SASSI) tool, and ITU-T Recommendation P.851. Chapter 6 presents the author’s work in establishing an valuation framework and methodology applied to the users’ experience with multimodal HMI systems. A novel user-acceptance Subjective Quality Evaluation Framework was developed by the author specifically for this purpose. A class structure arises from two orthogonal sets of dimensions. First we identify three broad classes of parameters related with user acceptance: likeability factors (those that have to do with the experience of using the system), rejection factors (which can only have a negative valence) and perception of usefulness. Secondly, the class structure is further broken down into several “user perception levels”; at the very least: an overall system-assessment level, task and goal-related levels, and an interface level (e.g., a dialogue system with or without an ECA). An empirical evaluation of the system described in Chapter 4 is presented in Chapter 7. The study was based on the abovementioned precedents in the literature, expanded with categories covering the inclusion of an ECA, the users’ s lf-assessed emotions, and particular rejection factors (privacy and security concerns). The Subjective Quality Evaluation Framework proposed in the previous chapter was also scrutinised. Factor analyses revealed an item structure very much related conceptually to the usefulness-likeability-rejection class division introduced above, thus giving it some empirical weight. Regression-based analysis revealed structures of dependencies, paths of interrelations, between the subjective and objective parameters considered. The central mediation effect, in the Technology Acceptance Model, of perceived usefulness on the dependency relationship of intention-to-use with perceived ease of use was confirmed in this study. Furthermore, the pattern of relationships was stronger for variables covering more broadly the likeability and usefulness categories in the Subjective Quality Evaluation Framework. Rejection factors were found to have a distinct presence as components in factor analyses, as well as distinct behaviour: they were found to moderate the relationship between intention-to-use (the main measure of user acceptance) and its strongest predictor, perceived usefulness. Insights of secondary importance are also given regarding the effect of ECAs on the interface of spoken dialogue systems and the dimensions of user perception and judgement attitude that may have a role in determining user acceptance of the technology. Despite observing slightly better performance values in the case of the system with the ECA, subjective opinions regarding both systems were, overall, very similar. Minor differences between two experimental groups (one interacting with an ECA, the other only through speech) include a more direct effect of dialogue problems (e.g., non-understandings) on perceived dialogue robustness for the voice-only interface test group, and a more positive emotional response for the ECA test group. Our findings further suggest that the ECA generates higher initial expectations, and users seem slightly more confident in their interaction with the ECA than do those without it. Finally, mild evidence of social effects of ECAs was also found: the perceived friendliness of the ECA increased security concerns, and ECA users may tend to blame themselves rather than the system when dialogue problems are encountered, while the opposite may be true for voice-only users.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El relieve natural de las islas volcánicas montañosas tiene profundos barrancos taludes rocosos de pronunciadas pendientes y elevados acantilados costeros. Las formaciones geológicas de origen volcánico incluyen materiales rocosos y suelos muy heterogéneos en cuanto a su disposición espacial y comportamiento geomecánico. Además, en las zonas del sur de Gran Canaria y Fuerteventura, con frecuencia las construcciones civiles y de edificación muestran altos taludes practicados en el terreno y, como resultado en diversos puntos se ven afectados por desprendimientos de rocas y deslizamientos En el presente trabajo se muestran dos casos de estudio: 1) Estudio del riesgo de desprendimientos de rocas y métodos de estabilización aplicados en el talud de Los Teques, T.M. de Mogán, sur de Gran Canaria, y 2) Estudio geológico-geotécnico para el proyecto de construcción del paseo peatonal en el acantilado costero de Morro Jable T.M. de Pájara, sur de Fuerteventura. La variación espacial de las formaciones volcamcas, su grado de soldadura y alteración variables y la dificultad de establecer familias de fracturas características, han hecho que los métodos clásicos de clasificación geomecanica resultaran poco eficaces. En estos casos, el reconocimiento geológico detallado y una estimación del comportamiento geomecánico de los materiales ha sido el método empleado para definir y evaluar las zonas inestables en los taludes y para establecer los métodos de estabilización más convenientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito del presente estudio es comparar dos modelos de distribución de la práctica a la hora de enseñar las disciplinas de salto de longitud y lanzamiento de jabalina. El modelo 1 será el de “práctica distribuida” y el modelo 2 será el de “práctica masiva”. Durante un mesociclo de 6 semanas se llevarán a cabo dos tipos de programación con dos grupos heterogéneos pero iguales entre ellos, y se intentará demostrar cuál de las dos es más adecuada en función de los resultados conseguidos, tanto cualitativos como cuantitativos, en una competición final. Además, un mes después se les realizará a los alumnos de manera individual un cuestionario verbal con las preguntas con las que fue evaluada su actuación práctica para conocer si los resultados obtenidos en la realización práctica se corresponden con el aprendizaje teórico de la prueba en cuestión.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El hormigón constituye la base del desarrollo moderno de la humanidad, gracias a este material homogéneo compuesto de materiales heterogéneos hoy en día podemos disfrutar de las maravillosas construcciones hechas por el hombre a lo largo de la historia. Este material ha experimentado mejoras en los últimos años, las cuales han contribuido con el fortalecimiento de sus propiedades físicas y químicas, lo que lo ha convertido en el material más utilizado en la construcción. El hormigón de alta resistencia es una de las mejoras que ha experimentado el hormigón convencional. Este material ha hecho posible la construcción de estructuras cada vez más esbeltas, reduciendo las secciones de elementos estructurales, lo que ha permitido tener más espacio disponible dentro de las edificaciones. Las características del HAR han contribuido a superar retos hasta ahora inalcanzables (luces cada vez más largas en puentes); la adición al mismo tanto de fibras de acero como poliméricas, pueden colaborar en mejorar algunas de sus características, lo que podría permitir su aplicación en otros campos. Este trabajo presenta en sus dos primeros capítulos una introducción y unos objetivos para la realización de esta investigación. Objetivos que son: Estudiar la posible variación de algunas características al añadir las fibras de poliolefina al hormigón de alta resistencia ; Realizar un trabajo experimental en el laboratorio, para que mediante una amasada de pruebas conocer la dosificación en hormigones de alta resistencia ; Realizar ensayos de resistencia a compresión, flexo-tracción y tracción indirecta para determinar las características mecánicas del hormigón y analizar el comportamiento del mismo frente a la aplicación de distintos esfuerzos ; Realizar ensayos de permeabilidad para la medir la capacidad de durabilidad del hormigón ; Realizar el ensayo de módulo de elasticidad para medir la rigidez del material ante una carga impuesta sobre el mismo y Plantear futuros trabajos de investigación sobre este tipo de material. Así mismo se presenta la evolución que ha experimentado el HAR a los largo de los años. También se describen todos los componentes del hormigón, los cuales colaboran con sus propiedades. En el tercer capítulo, se analizarán varias investigaciones similares, en el cuarto capítulo se realizó una campaña experimental añadiendo al HAR fibras de poliolefina, para estudiar su colaboración a este hormigón. Por último, en el quinto capítulo se llegaran a las conclusiones, a las que ha dado lugar este trabajo y se propusieron varios desarrollos que se podrían experimentar en el futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presentan las expresiones explícitas de las frecuencias y modos de vibración de un edificio homogéneo y regular. A efectos prácticos se propone una fórmula de interpolación de las frecuencias para casos intermedios entre las situaciones de viga de cortante y viga de flexión. Los resultados obtenidos permiten su extensión al análisis de estructuras, entramados planos irregulares y heterogéneos, mediante la utilización de la técnica de Ritz. Se presentan algunos ejemplos de la eficiencia y aproximación del método.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gasificación de lodos de depuración es una alternativa atractiva para generar gases combustibles como H2 y CO. A su vez, estos gases pueden emplearse como materias primas para la obtención de productos químicos orgánicos y combustibles líquidos. Sin embargo, la gasificación no está exenta de problemas como el ligado a la generación de residuos sólidos y alquitrán. El alquitrán en el gas puede ser un inconveniente para emplear el gas como combustible por las obstrucciones y corrosión en los equipos. Dado que las condiciones de gasificación influyen en la producción de alquitrán, este trabajo de investigación se ha centrado en analizar la influencia de parámetros como la temperatura, la carga de alimentación, el tamaño de partícula, el agente gasificante y la utilización de catalizadores en la gasificación en lecho fluidizado de lodos de depuración. Adicionalmente a la medición del efecto de los anteriores parámetros en la producción y composición del alquitrán, también se ha cuantificado su influencia en la producción y composición del gas y en producción del residuo carbonoso. Los resultados muestran que el incremento de la carga de alimentación (kg/h.m2) provoca el descenso de la producción de gas combustible y el incremento del residuo carbonoso y del alquitrán debido a la reducción del tiempo de residencia del gas lo que supone un menor tiempo disponible para las reacciones gas-gas y gas-sólido ligadas a la conversión del alquitrán y del residuo carbonoso en gases combustibles. También se ha comprobado que, el aumento del tamaño de partícula, al incrementar el tiempo de calentamiento de ésta, tiene un efecto similar en los productos de la gasificación que el derivado del incremento en la carga de alimentación. La utilización de una temperatura de gasificación alta (850 ºC), el empleo de aire-vapor como agente gasificante y/o catalizadores primarios como la dolomía consiguen reducir la producción de alquitrán. ABSTRACT Gasification of sewage sludge is an attractive alternative for generating of fuel gases such as H2 and CO. These gases, in turn, can be used as raw materials for the production of organic chemicals and liquid fuel. However, gasification is not without problems as the linked ones to production of char and tar. The tar in the gas can be an inconvenience for to use it as fuel by the problems of blockage and corrosion in the equipments. Since the gasification conditions affect the production of tar, this research has focused on analysing the influence of parameters such as temperature, throughput, the particle size, the gasifying agent and the use of catalysts in the fluidized bed gasification of sewage sludge. In addition to measuring the effect of the above parameters on the production and composition of the tar, it has also been quantified their influence on the yield and composition of the gas and char production. The results show that higher throughput (kg/h.m2) leads to a reduction of fuel gas production and an increase in the production of char and tar, this owes to a lower of gas residence time or what is the same thing less time available for gas-solid and gas-gas reactions attached to the conversion of tar and char to fuel gases. There has also been proven that the rising in particle size, by the increasing heating time of it, has a similar effect in the products of gasification that the results by the rise in the throughput. The applications a high gasification temperature (850 ° C), the use of air-steam as gasifying agent and/or dolomite as primary catalysts are able to reduce the production of tar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La interoperabilidad o habilidad para intercambiar información entre sistemas informáticos es una cuestión de gran importancia en la informática médica. La interoperabilidad influye directamente en la calidad de los sistemas médicos existentes en la práctica clínica, ya que permite que la información se trate de manera eficiente y consistente. Para la comunicación entre sistemas informáticos heterogéneos se necesitan terminologías o diccionarios que representen e identifiquen conceptos médicos de forma única, sin importar el idioma o la forma lingüística en la que aparezcan. Estas terminologías permiten a los sistemas informáticos tener la misma visión del mundo y que la información intercambiada sea entendible. Actualmente, los esfuerzos para la adopción de estas terminologías en la práctica clínica recaen en los profesionales del dominio médico. Los profesionales son los encargados de reconocer conceptos médicos manualmente en documentos del área de la medicina y anotarlos con el código del concepto asociado en la terminología. No existe ningún método automático que permita el reconocimiento de conceptos de un determinado dominio, como por ejemplo las enfermedades, y que posteriormente encuentre el concepto asociado dentro de una terminología con un grado de precisión suficientemente elevado para que pueda ser adoptado en la práctica clínica. En esta tesis de máster se propone un nuevo método para el reconocimiento de enfermedades en fichas técnicas de medicamentos y su posterior mapeo con la terminología médica SNOMED-CT en español. El método utiliza dos nuevas técnicas propuestas en la tesis para cada fase. La nueva técnica para el reconocimiento de enfermedades propuesta está basada en reglas y en diccionarios especializados en medicina. La nueva técnica de mapeo está basada en la generación de las posibles combinaciones lingüísticas en las que puede aparecer la enfermedad para realizar comparaciones exactas de palabras, utilizando las funciones sintácticas de las palabras como guía. El método propuesto se centra en la identificación de enfermedades dentro de la sección de indicaciones terapéuticas de las fichas técnicas de medicamentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad las industrias químicas, farmacéuticas y clínicas, originan contaminantes en aguas superficiales, aguas subterráneas y suelos de nuestro país, como es el caso del fenol, contaminante orgánico común y altamente dañino para los organismos, incluso a bajas concentraciones. Existen en el mercado diferentes metodologías para minimizar la contaminación pero muchos de estos procesos tienen un alto coste, generación de contaminantes, etc. La adsorción de contaminantes por medio de arcillas es un método ampliamente utilizado, encontrándose eficaz y económico. Pero la dificultad de adsorber un contaminante orgánico como el fenol motiva la creación de un material llamado organoarcillas. Las organoarcillas son arcillas modificadas con un surfactante, a su vez, los surfactantes son moléculas orgánicas que confieren a la superficie de la arcilla carga catiónica en lugar de aniónica, haciendo más fácil la adsorción de fenol. Para esta tesis se ha elegido el caolín como material adsorbente, fácilmente disponible y relativamente de bajo coste. Se ha trabajado con: arenas de caolín, material directo de la extracción, y caolín lavado, originado del proceso de lavado de las arenas de caolín. Ambos grupos se diferencian fundamentalmente por su contenido en cuarzo, ampliamente mayor en las arenas de caolín. Con el objetivo de desarrollar un material a partir del caolín y arenas de éste con capacidad de retención de contaminates, en concreto, fenol, se procedió a modificar los materiales de partida mediante tratamientos térmicos, mecánicos y/o químicos, dando lugar a compuestos con mayor superficie química reactiva. Para ello se sometió el caolín y las arenas caoliníferas a temperaturas de 750ºC durante 3h, a moliendas hasta alcanzar su amorfización, y/o a activaciones con HCl 6M o con NaOH 5M durante 3h a 90ºC. En total se obtuvieron 18 muestras, en las que se estudiaron las características físico-químicas, mineralógicas y morfológicas de cada una de ellas con el fin de caracterizarlas después de haber sufrido los tratamientos y/o activaciones químicas. Los cambios producidos fueron estudiados mediante pH, capacidad de intercambio catiónico (CEC), capacidad de adsorción de agua (WCU y CWC), distribución de tamaño de partícula (PSD), área de superficie específica (SBET), difracción de rayos X (XRD), espectroscopía infrarroja por transformada de Fourier (FTIR), métodos térmicos (TG, DTG y DTA), y microscopía electrónica de transmisión y barrido (SEM y TEM). Además se analizó los cambios producidos por los tratamientos en función de las pérdidas de Al y Si que acontece en las 18 muestras. Los resultados para los materiales derivados de la arenas caoliníferas fueron similares a los obtenidos para los caolines lavados, la diferencia radica en la cantidad de contenido de caolinita en los diferente grupos de muestras. Apoyándonos en las técnicas de caracterización se puede observar que los tratamientos térmico y molienda produce materiales amorfos, este cambio en la estructura inicial sumado a las activaciones ácida y alcalina dan lugar a pérdidas de Si y Al, ocasionando que sus propiedades físico-químicas, mineralógicas y morfológicas se vean alteradas. Un fuerte aumento es observado en las áreas superficiales y en la CEC en determinadas muestras, además entre los cambios producidos se encuentra la producción de diferentes zeolitas en porcentajes distintos con el tratamiento alcalino. Para la obtención de las organoarcillas, las 18 muestras se sometieron a la surfactación con hexadeciltrimetil amonio (HDTMA) 20 mM durante 24h a 60ºC, esta concentración de tensioactivo fue más alta que la CEC de cada muestra. Los camext bios anteriormente producidos por los tratamientos y activaciones, afectan de forma diferente en la adsorción de HDTMA, variando por tanto la adsorción del surfactante en la superficie de las muestras. Se determinó el tensioactivo en superficie por FTIR, además se realizó un análisis de componentes principales (PCA) para examinar la dependencia entre las relaciones Si/Al de las muestras en la capacidad de adsorción de tensioactivo, y para el estudio de la adsorción de HDTMA en las muestras se realizaron además del análisis termogravimétrico, aproximaciones con los modelos de Freundllich y Langmuir. Se persigue conocer las diferentes formas y maneras que tiene el tensioactivo de fijarse en la superficie de las muestras. En las organoarcillas resultantes se cuantificó el fenol adsorbido cuando éstas fueron puestas en contacto con diferentes concentraciones de fenol: 50, 500, 1000, 2000, y 2500 mg/l durante 24h. El contaminante sorbido se calculó por medio de cromatografía de gases, y se realizaron aproximaciones con los modelos de Freundllich y Langmuir. El comportamiento de adsorción de fenol en arcillas orgánicas es regido por las características de las muestras. De forma general se puede decir que las muestras de caolines lavados tienen más capacidad de adsorción de fenol que las muestras de arenas de caolín y que la activación alcalina ha proporcionado una mejora en la adsorción de fenol en los dos grupos. En consecuencia se han obtenido materiales adsorbentes heterogéneos y por tanto, con propiedades diferentes. Se ha evaluado el comportamiento global de las arenas de caolín por un lado y del caolín lavado por otro. Las arenas de caolín presentan altos niveles de cuarzo y su uso para ciertos tipos de industrias no son recomendados en ocasiones por el alto costo que el proceso de limpieza y purificación implicaría. Por ello es importante reseñar en este proyecto las aplicaciones que ofrecen algunas muestras de este grupo. Los ensayos acontecidos en esta tesis han dado lugar a las siguientes publicaciones: • Pérdida de Al y Si en caolines modificados térmica- o mecánicamente y activados por tratamientos químicos. A. G. San Cristóbal, C Vizcayno, R. Castelló. Macla 9, 113-114. (2008). • Acid activation of mechanically and thermally modfied kaolins. A. G. San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Mater. Res. Bull. 44 (2009) 2103-2111. • Zeolites prepared from calcined and mechanically modified kaolins. A comparative study. A. G San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Applied Clay Science 49 (2010) 239-246. • Study comparative of the sorption of HDTMA on natural and modified kaolin. A. G San Cristóbal, R. Castelló, J. M. Castillejo, C Vizcayno. Aceptada en Clays and Clay minerals. • Capacity of modified kaolin sand and washed kaolin to adsorb phenol. A. G San Cristóbal, R. Castelló, C Vizcayno. Envío a revista sujeto a la publicación del artículo anterior. ABSTRACT Today’s chemical, pharmaceutical and clinical industries generate pollutants that affect the soils and surface and ground waters of our country. Among these, phenol is a common organic pollutant that is extremely harmful to living organisms, even at low concentrations. Several protocols exist to minimize the effects of pollutants, but most are costly procedures or even generate other pollutants. The adsorption of hazardous materials onto clays is perhaps the most used, efficient and cost-saving method available. However, organic compounds such as phenol are difficult to adsorb and this has led to the development of materials known as organoclays, which are much better at remediating organic compounds. Organoclays are clays that have been modified using a surfactant. In turn, surfactants are organic molecules that confer a cationic rather than anionic charge to the clay surface, improving it’s capacity to adsorb phenol. For this doctorate project, kaolin was selected as an adsorbent material for the removal of phenol given its easy sourcing and relatively low cost. The materials investigated were kaolin sand, a directly extracted material, and washed kaolin, which is the byproduct of the kaolin sand washing process. The main difference between the materials is their quartz content, which is much higher in the kaolin sands. To generate a product from kaolin or kaolin sand capable of retaining organic pollutants such as phenol, both materials were subjected to several heat, chemical and/or mechanical treatments to give rise to compounds with a greater reactive surface area. To this end the two starting materials underwent heating at 750ºC for 3 h, grinding to the point of amorphization and/or activation with HCl 6M or NaOH 5M for 3 h at 90ºC. These treatments gave rise to 18 processed samples, which were characterized in terms of their morphological, mineralogical, and physical-chemical properties. The behaviour of these new materials was examined in terms of their pH, cation exchange capacity (CEC), water adsorption capacity (WCU and WCC), particle size distribution (PSD), specific surface area (SBET), and their X-ray diffraction (XRD), Fourier transform infrared spectroscopy (FTIR), thermal (DTG, DTA) and scanning and transmission electron microscopy (SEM and TEM) properties. The changes conferred by the different treatments were also examined in terms of Al and Si losses. Results for the materials derived from kaolin sands and washed kaolin were similar, with differences attributable to the kaolinite contents of the samples. The treatments heat and grinding produced amorphous materials, which when subjected to acid or alkali activation gave rise to Si and Al losses. This in turn led to a change in physico- chemical, mineralogical and morphological properties. Some samples showed a highly increased surface area and CEC. Further, among the changes produced, alkali treatment led to the generation of zeolites in different proportions depending on the sample. To produce the organoclays, the 18 samples were surfacted with hexadecyltrimethylammonium (HDTMA) 20 mM for 24 h at 60ºC. This surfactant concentration is higher than the CEC of each sample. The amount of HDTMA adsorbed onto the surface of each sample determined by FTIR varied according to treatment. A principle components analysis (PCA) was performed to examine correlations between sample Si/Al ratios and surfactant adsorption capacity. In addition, to explore HDTMA adsorption by the samples, DTG and DTA data were fitted to Freundllich and Langmuir models. The mechanisms of surfactant attachment to the sample surface were also addressed. The amount of phenol adsorbed by the resultant organoclays was determined when exposed to different phenol concentrations: 50, 500, 1000, 2000, and 2500 mg/l for 24 h. The quantity of adsorbed pollutant was estimated by gas chromatography and the data fitted to the models of Freundllich and Langmuir. Results indicate that the phenol adsorption capacity of the surfacted samples is dependent on the sample’s characteristics. In general, the washed kaolin samples showed a greater phenol adsorption capacity than the kaolon sands and alkali activation improved this capacity in the two types of sample. In conclusion, the treatments used gave rise to adsorbent materials with varying properties. Kaolin sands showed high quartz levels and their use in some industries is not recommended due to the costs involved in their washing and purification. The applications suggested by the data obtained for some of the kaolin sand samples indicate the added value of this industrial by-product. The results of this research project have led to the following publications: • Pérdida de Al y Si en caolines modificados térmica- o mecánicamente y activados por tratamientos químicos. A. G. San Cristóbal, C Vizcayno, R. Castelló. Macla 9, 113-114. (2008). • Acid activation of mechanically and thermally modfied kaolins. A. G. San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Mater. Res. Bull. 44 (2009) 2103-2111. • Zeolites prepared from calcined and mechanically modified kaolins. A comparative study. A. G. San Cristóbal, R. Castelló, M. A. Martín Luengo, C Vizcayno. Applied Clay Science 49 (2010) 239-246. • Study comparative of the sorption of HDTMA on natural and modified kaolin. A. G. San Cristóbal, R. Castelló, J. M. Castillejo, C Vizcayno Accepted in Clays and Clay minerals. • Capacity of modified kaolin sand and washed kaolin to adsorb phenol. A. G San Cristóbal, R. Castelló, C Vizcayno. Shipment postponed, subject to the publication of the previous article.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(SPA) Los bonos convertibles en acciones son instrumentos de financiación corporativa que en general comparten varias de las características de las emisiones de deuda senior corporativa, como el pago regular y fijado de cupones, vencimiento definido, momento en el que se repaga la totalidad del principal, y prelación en caso de default con respecto a otras obligaciones crediticias. En cambio, el repago del principal se ofrecerá bajo determinadas circunstancias en acciones de la compañía emisora en una proporción acordada previamente. Pero los instrumentos convertibles son instrumentos heterogéneos que suelen incorporar otras características particulares a cada caso, como son repagos anticipados bajo determinadas condiciones, reducción del ratio de conversión a determinados precios de la acción, pagos compensatorios o "make-whole" y otros. Los instrumentos convertibles son ejemplos de activos híbridos que comparten características de deuda y de capital y por tanto tienen impacto específico en la contabilidad de las empresas y en la posible dilución de sus accionistas. En España y otros países de la periferia de Europa, la emisión de bonos convertibles ha aumentado considerablemente desde el inicio de la crisis financiera, fundamentalmente debido a la restricción de otras formas de crédito empresarial, principalmente los créditos bancarios. En el presente artículo se explican algunas de las características comunes a los bonos convertibles emitidos recientemente por empresas españolas, se analizan las ventajas, y las razones para la emisión de estos activos, y se indican sus implicaciones contables. Los instrumentos convertibles pueden ser una alternativa estable a la deuda bancaria y a la renta fija tradicional en los mercados de capitales para la financiación de las compañías medianas, que tienen menos acceso a fuentes de financiación en situaciones de aversión riesgo por parte de los inversores y entidades financieras. (ENG)Convertible bonds share several characteristics with secure corporate debt, such as the regular coupon payments, fixed maturity and similar seniority in case of default. Nevertheless the investor of the convertible bond has the option of receiving the principal amount repayment at maturity in cash or receiving a previously agreed number of shares. But convertible securities can be complex financial instruments that possess exotic or specific features, such as soft calls, put options, cash options, cash top up features, or make whole amounts. Convertible securities are hybrid instruments that share characteristics of both debt and equity, and therefore suffer an specific accounting treatment under International Financial Reporting Standards, where the issuing company must separately identify the debt and equity components in its financial statements In peripheral European countries and in Spain in particular, convertible issuance has significantly increased since the start of the Global Financial Crisis, an increase mainly driven by the restriction of other forms of credit, namely banking loans. This article summarizes some of the common characteristics of convertible securities, analyzes its advantages for both issuers and investors, and introduces the accounting of convertible bonds. Convertible Bonds can become a viable and stable alternative to bank loans and to high yield or investment grade bonds for the funding of mid-sized corporates which normally have a more difficult access to credit in regional banking crisis or credit restrictive environments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto que se presenta a continuación recoge la adaptación de una Central Térmica de carbón al cumplimiento de la DIRECTIVA 2010/75/UE DEL PARLAMENTO EUROPEO Y DEL CONSEJO de 24 de noviembre de 2010 sobre las emisiones industriales. La Central sobre la que se realiza el proyecto tiene un grupo térmico de carbón suscritico refrigerado por agua, con una potencia a plena carga de 350 MWe y de 190 MWe a mínimo técnico. Genera 1 090 t/h de vapor a 540 °C y 168 kg/cm2 funcionando a plena carga. Actualmente las emisiones de NOx son de 650 mg/m3, (condiciones normales, seco, 6 % O2). El objeto del proyecto es reducir estas emisiones a un valor máximo de 200 mg/m3 en las mismas condiciones. El proyecto analiza detalladamente las condiciones actuales de operación de la instalación en cuanto a combustible utilizado, horas de funcionamiento, condiciones climáticas y producción. Se analiza así mismo, todas las técnicas disponibles en mercado para la reducción del NOx, diferenciando entre medidas primarias (actúan sobre los efectos de formación) y secundarias (limpieza de gases). Las medidas primarias ya están implementadas en la central, por tanto, el proyecto plantea la reducción con medidas secundarias. De las medidas secundarias analizadas se ha seleccionado la instalación de un Reactor de Reducción Selectiva Catalítica (Reactor SCR). Tras un análisis de los diferentes reactores y catalizadores disponibles se ha seleccionado un reactor de configuración High-dust, una disposición de catalizador en 3 capas más 1, cuyos componentes están basados en óxidos metálicos (TiO2, V2O5, WO3) y estructura laminar. Se ha buscado la instalación del reactor para operar a una temperatura inferior a 450 °C. Como agente reductor se ha seleccionado NH3 a una dilución del 24,5 %. El proyecto recoge también el diseño de todo el sistema de almacenamiento, evaporación, dilución e inyección de amoniaco. El resultado del proyecto garantiza una concentración en los gases de salida por la chimenea inferior 180 mg/m3(n) de NOx. La reducción del NOx a los límites establecidos, tienen un coste por MWh neto generado para la central, trabajando 60 % a plena carga y 40 % a mínimo técnico y una amortización de 10 años, de 4,10 €/MWh. ABSTRACT The following project shows the compliance adjustment of a coal-fired power station to the 2010/75/EU Directive of the European Parliament and Council 24th November 2010 on industrial emissions. The project is based on a power station with a subcritical thermal coal unit, cooled with water, with a maximum power of 350 MWe and a technical minimum of 190 MWe. It produces 1 090 t/h of steam at 540 ° C and 168 kg/cm2 operating under full load. Currently, NOx emissions are 650 mg / m3 (normal conditions, dry, 6% O2). The project aims to reduce these emissions to a maximum value of 200 mg / m3 under the same conditions. The project analyses in detail the current operating conditions of the system in terms of fuel used, hours of operation, climatic conditions and production. In addition, it also analyses every available technique of NOx reduction on the market, distinguishing between primary (acting on the effects of formation) and secondary measures (gas cleaning). Primary measures are already implemented in the plant, thus proposing reduction with secondary measures. Among the secondary measures analyzed, it has been selected to install a Selective Catalytic Reduction Reactor (SCR Reactor). Having researched the different reactors and catalysts available, for the reactor has been selected High-dust configuration, an arrangement of catalyst in 3 layers plus 1, whose components are based on metal oxides (TiO2, V2O5, WO3) and laminar structure. The reactor has been sought facility to operate at a temperature below 450 ° C. NH3 diluted to 24,5 % has been selected as reducing agent. The project also includes the design of the entire storage system, evaporation, dilution and ammonia injection. The results of the project ensure a gas concentration in the lower chimney exit below 180 mg / m3(n) NOx. The reduction of NOx to the established limits has a cost per net MWh generated in the plant, working at 60% of full load and at 40% of technical minimum, with an amortization of 10 years, 4,10 € / MWh.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La integración de fuentes de información heterogéneas ha sido un problema abordado en diferentes tipos de fuentes a lo largo de las décadas de diferentes maneras. Una de ellas es el establecimiento de unas relaciones semánticas que permitan poder unir la información de las fuentes relacionadas. A estos enlaces, claves en la integración, se les ha llamado generalmente mappings. Los mappings se han usado en multitud de trabajos y se han abordado, de manera más práctica que teórica en muchos casos, diferentes soluciones para su descubrimiento, su almacenaje, su explotación, etc. Sin embargo, aunque han sido muchas las contribuciones sobre mappings, no hay una definición generalizada y admitida por la comunidad que cubra todos los aspectos vinculados a los mappings. Además, en su proceso de descubrimiento, no existe un marco teórico que defina metódicamente los procesos a seguir y sus características. Igualmente, la actual forma de evaluar el descubrimiento de mappings no es suficiente para toda la casuística existente. En este trabajo se aporta una definición de mapping génerica que engloba todos los sistemas actuales, la especificación detallada del proceso de descubrimiento y el análisis y la propuesta de un proceso de evaluación del descubrimiento. La validez de estos aportes se comprueba con la formulación de hipótesis y su comprobación mediante un estudio cuantitativo sobre un caso de uso con recursos geoespaciales heterogéneos. ABSTRACT The integration of heterogeneous information resources has been an issue addressed in different types of sources over the decades in different ways. One of them is the establishment of semantic relations which allow information from different related resources to be linked. These links, crucial pieces of this integration, are usually known as mappings. These mappings have been widely used in many applications, and different solutions for their discovery, storing, explotation, etc. have been presented, following rather a more practical than theoretical way in many cases. However, although mappings have been widely applied by many researchers, there is a lack of a generally accepted definition that can cover all the aspects related to mappings. Moreover, in the process of mapping discovery, there is not a theoretical framework that defines methodically the processes to be followed and their characteristics. Similarly, the current way of assessing or evaluating the discovery of mappings is insufficient for all the existing use cases. The main contributions of this work are threefold. On the one hand, it presents a general definition of "mapping" which covers all current systems. On the other hand, it describes a detailed specification of the discovery process, and, finally, it faces the analysis and the purpose of the evaluation of this discovery process. The validity of these contributions has been checked with the formulation of hypothesis which have been verified by using heterogeneous geospatial resources in a quantitative study.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años ha habido un gran aumento de fuentes de datos biomédicos. La aparición de nuevas técnicas de extracción de datos genómicos y generación de bases de datos que contienen esta información ha creado la necesidad de guardarla para poder acceder a ella y trabajar con los datos que esta contiene. La información contenida en las investigaciones del campo biomédico se guarda en bases de datos. Esto se debe a que las bases de datos permiten almacenar y manejar datos de una manera simple y rápida. Dentro de las bases de datos existen una gran variedad de formatos, como pueden ser bases de datos en Excel, CSV o RDF entre otros. Actualmente, estas investigaciones se basan en el análisis de datos, para a partir de ellos, buscar correlaciones que permitan inferir, por ejemplo, tratamientos nuevos o terapias más efectivas para una determinada enfermedad o dolencia. El volumen de datos que se maneja en ellas es muy grande y dispar, lo que hace que sea necesario el desarrollo de métodos automáticos de integración y homogeneización de los datos heterogéneos. El proyecto europeo p-medicine (FP7-ICT-2009-270089) tiene como objetivo asistir a los investigadores médicos, en este caso de investigaciones relacionadas con el cáncer, proveyéndoles con nuevas herramientas para el manejo de datos y generación de nuevo conocimiento a partir del análisis de los datos gestionados. La ingestión de datos en la plataforma de p-medicine, y el procesamiento de los mismos con los métodos proporcionados, buscan generar nuevos modelos para la toma de decisiones clínicas. Dentro de este proyecto existen diversas herramientas para integración de datos heterogéneos, diseño y gestión de ensayos clínicos, simulación y visualización de tumores y análisis estadístico de datos. Precisamente en el ámbito de la integración de datos heterogéneos surge la necesidad de añadir información externa al sistema proveniente de bases de datos públicas, así como relacionarla con la ya existente mediante técnicas de integración semántica. Para resolver esta necesidad se ha creado una herramienta, llamada Term Searcher, que permite hacer este proceso de una manera semiautomática. En el trabajo aquí expuesto se describe el desarrollo y los algoritmos creados para su correcto funcionamiento. Esta herramienta ofrece nuevas funcionalidades que no existían dentro del proyecto para la adición de nuevos datos provenientes de fuentes públicas y su integración semántica con datos privados.---ABSTRACT---Over the last few years, there has been a huge growth of biomedical data sources. The emergence of new techniques of genomic data generation and data base generation that contain this information, has created the need of storing it in order to access and work with its data. The information employed in the biomedical research field is stored in databases. This is due to the capability of databases to allow storing and managing data in a quick and simple way. Within databases there is a variety of formats, such as Excel, CSV or RDF. Currently, these biomedical investigations are based on data analysis, which lead to the discovery of correlations that allow inferring, for example, new treatments or more effective therapies for a specific disease or ailment. The volume of data handled in them is very large and dissimilar, which leads to the need of developing new methods for automatically integrating and homogenizing the heterogeneous data. The p-medicine (FP7-ICT-2009-270089) European project aims to assist medical researchers, in this case related to cancer research, providing them with new tools for managing and creating new knowledge from the analysis of the managed data. The ingestion of data into the platform and its subsequent processing with the provided tools aims to enable the generation of new models to assist in clinical decision support processes. Inside this project, there exist different tools related to areas such as the integration of heterogeneous data, the design and management of clinical trials, simulation and visualization of tumors and statistical data analysis. Particularly in the field of heterogeneous data integration, there is a need to add external information from public databases, and relate it to the existing ones through semantic integration methods. To solve this need a tool has been created: the term Searcher. This tool aims to make this process in a semiautomatic way. This work describes the development of this tool and the algorithms employed in its operation. This new tool provides new functionalities that did not exist inside the p-medicine project for adding new data from public databases and semantically integrate them with private data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parte de la investigación biomédica actual se encuentra centrada en el análisis de datos heterogéneos. Estos datos pueden tener distinto origen, estructura, y semántica. Gran cantidad de datos de interés para los investigadores se encuentran en bases de datos públicas, que recogen información de distintas fuentes y la ponen a disposición de la comunidad de forma gratuita. Para homogeneizar estas fuentes de datos públicas con otras de origen privado, existen diversas herramientas y técnicas que permiten automatizar los procesos de homogeneización de datos heterogéneos. El Grupo de Informática Biomédica (GIB) [1] de la Universidad Politécnica de Madrid colabora en el proyecto europeo P-medicine [2], cuya finalidad reside en el desarrollo de una infraestructura que facilite la evolución de los procedimientos médicos actuales hacia la medicina personalizada. Una de las tareas enmarcadas en el proyecto P-medicine que tiene asignado el grupo consiste en elaborar herramientas que ayuden a usuarios en el proceso de integración de datos contenidos en fuentes de información heterogéneas. Algunas de estas fuentes de información son bases de datos públicas de ámbito biomédico contenidas en la plataforma NCBI [3] (National Center for Biotechnology Information). Una de las herramientas que el grupo desarrolla para integrar fuentes de datos es Ontology Annotator. En una de sus fases, la labor del usuario consiste en recuperar información de una base de datos pública y seleccionar de forma manual los resultados relevantes. Para automatizar el proceso de búsqueda y selección de resultados relevantes, por un lado existe un gran interés en conseguir generar consultas que guíen hacia resultados lo más precisos y exactos como sea posible, por otro lado, existe un gran interés en extraer información relevante de elevadas cantidades de documentos, lo cual requiere de sistemas que analicen y ponderen los datos que caracterizan a los mismos. En el campo informático de la inteligencia artificial, dentro de la rama de la recuperación de la información, existen diversos estudios acerca de la expansión de consultas a partir de retroalimentación relevante que podrían ser de gran utilidad para dar solución a la cuestión. Estos estudios se centran en técnicas para reformular o expandir la consulta inicial utilizando como realimentación los resultados que en una primera instancia fueron relevantes para el usuario, de forma que el nuevo conjunto de resultados tenga mayor proximidad con los que el usuario realmente desea. El objetivo de este trabajo de fin de grado consiste en el estudio, implementación y experimentación de métodos que automaticen el proceso de extracción de información trascendente de documentos, utilizándola para expandir o reformular consultas. De esta forma se pretende mejorar la precisión y el ranking de los resultados asociados. Dichos métodos serán integrados en la herramienta Ontology Annotator y enfocados a la fuente de datos de PubMed [4].---ABSTRACT---Part of the current biomedical research is focused on the analysis of heterogeneous data. These data may have different origin, structure and semantics. A big quantity of interesting data is contained in public databases which gather information from different sources and make it open and free to be used by the community. In order to homogenize thise sources of public data with others which origin is private, there are some tools and techniques that allow automating the processes of integration heterogeneous data. The biomedical informatics group of the Universidad Politécnica de Madrid cooperates with the European project P-medicine which main purpose is to create an infrastructure and models to facilitate the transition from current medical practice to personalized medicine. One of the tasks of the project that the group is in charge of consists on the development of tools that will help users in the process of integrating data from diverse sources. Some of the sources are biomedical public data bases from the NCBI platform (National Center for Biotechnology Information). One of the tools in which the group is currently working on for the integration of data sources is called the Ontology Annotator. In this tool there is a phase in which the user has to retrieve information from a public data base and select the relevant data contained in it manually. For automating the process of searching and selecting data on the one hand, there is an interest in automatically generating queries that guide towards the more precise results as possible. On the other hand, there is an interest on retrieve relevant information from large quantities of documents. The solution requires systems that analyze and weigh the data allowing the localization of the relevant items. In the computer science field of the artificial intelligence, in the branch of information retrieval there are diverse studies about the query expansion from relevance feedback that could be used to solve the problem. The main purpose of this studies is to obtain a set of results that is the closer as possible to the information that the user really wants to retrieve. In order to reach this purpose different techniques are used to reformulate or expand the initial query using a feedback the results that where relevant for the user, with this method, the new set of results will have more proximity with the ones that the user really desires. The goal of this final dissertation project consists on the study, implementation and experimentation of methods that automate the process of extraction of relevant information from documents using this information to expand queries. This way, the precision and the ranking of the results associated will be improved. These methods will be integrated in the Ontology Annotator tool and will focus on the PubMed data source.