32 resultados para interferometria de píons
em Universidad Politécnica de Madrid
Resumo:
En este artículo presentamos un sistema de videoconferencia web de bajo coste cuyo objetivo es mejorar la comunicación entre Atención Primaria y Atención Especializada optimizando los recursos y la calidad de la atención en enfermedades con alta prevalencia en la actualidad. En este caso se utiliza para problemas metabólicos como la diabetes o patologías del tiroides, aunque podría ser aplicado a otras patologías. El sistema está basado en una herramienta de SW libre (OpenMeetings) adaptada a nuestras necesidades y a la que se han añadido funcionalidades importantes como una sala de espera virtual o la administración de agendas. eCONSULTA ha sido instalado en el Servicio de Endocrinología y Nutrición del Hospital de Sabadell e integrado en el sistema de información médico de los Centros de Atención Primaria de la comarca del Vallés Occidental, provincia de Barcelona. En el momento de la redacción del artículo se está realizando un estudio de viabilidad y satisfacción de los usuarios.
Resumo:
This paper presents the complete development of the Simbiosis Smart Walker. The device is equipped with a set of sensor subsystems to acquire user-machine interaction forces and the temporal evolution of user's feet during gait. The authors present an adaptive filtering technique used for the identification and separation of different components found on the human-machine interaction forces. This technique allowed isolating the components related with the navigational commands and developing a Fuzzy logic controller to guide the device. The Smart Walker was clinically validated at the Spinal Cord Injury Hospital of Toledo - Spain, presenting great acceptability by spinal chord injury patients and clinical staff
Resumo:
El objetivo de este proyecto es estudiar la recuperación secundaria de petróleo de la capa sureste Ayoluengo del campo Ayoluengo, Burgos (España), y su conversión en un almacenamiento subterráneo de gas. La capa Ayoluengo se ha considerado como una capa inclinada de 60 km por 10 km de superficie por 30 m de espesor en el que se han perforado 20 pozos, y en donde la recuperación primaria ha sido de un 19%. Se ha realizado el ajuste histórico de la recuperación primaria de gas, petróleo y agua de la capa desde el año 1965 al 2011. La conversión a almacenamiento subterráneo de gas se ha realizado mediante ciclos de inyección de gas, de marzo a octubre, y extracción de gas, de noviembre a febrero, de forma que se incrementa la presión del campo hasta alcanzar la presión inicial. El gas se ha inyectado y extraído por 5 pozos situados en la zona superior de la capa. Al mismo tiempo, se ha realizado una recuperación secundaria debido a la inyección de gas natural de 20 años de duración en donde la producción de petróleo se realiza por 14 pozos situados en la parte inferior de la capa. Para proceder a la simulación del ajuste histórico, conversión en almacenamiento y recuperación secundaria se utilizó el simulador Eclipse100. Los resultados obtenidos fueron una recuperación secundaria de petróleo de un 9% más comparada con la primaria. En cuanto al almacenamiento de gas natural, se alcanzó la presión inicial consiguiendo un gas útil de 300 Mm3 y un gas colchón de 217,3 Mm3. ABSTRACT The aim of this project is to study the secondary recovery of oil from the southeast Ayoluengo layer at the oil field Ayoluengo, Burgos (Spain), and its conversion into an underground gas storage. The Ayoluengo layer is an inclined layer of 60 km by 10km of area by 30 m gross and with 20 wells, which its primary recovery is of 19%. The history matching of the production of oil, gas and water has been carried out from the year 1965 until 2011. The conversion into an underground gas storage has been done in cycles of gas injection from March to October, and gas extraction from November to February, so that the reservoir pressure increases until it gets to the initial pressure. The gas has been injected and extracted through five well situated in the top part of the layer. At the same time, the secondary recovery has occurred due to de injection of natural gas during 20 years where the production of oil has been done through 14 wells situated in the lowest part of the layer. To proceed to the simulation of the history match, the conversion into an underground gas storage and its secondary recovery, the simulator used was Eclipse100. The results were a secondary recovery of oil of 9% more, compared to the primary recovery and concerning the underground gas storage, the initial reservoir pressure was achieved with a working gas of 300 Mm3 and a cushion gas of 217,3 Mm3.
Resumo:
Este proyecto se enmarca dentro de la Computación Simbólica y de los fundamentos matemáticos del Diseño Geométrico Asistido por ordenador (CAGD). Se abordara uno de los problemas principales en el ámbito del CAGD y que es la manipulación de las Curvas Concoide. La importancia del avance en la manipulación de las curvas concoide radica en el papel fundamental que desempeñan en múltiples aplicaciones en la actualidad dentro de campos de diversa índole tales como la medicina, la óptica, el electromagnetismo, la construcción, etc. El objetivo principal de este proyecto es el diseño e implementación de algoritmos para el estudio, cálculo y manipulación de curvas concoides, utilizando técnicas propias del Calculo Simbólico. Esta implementación se ha programado utilizando el sistema de computación simbólica Maple. El proyecto consiste en dos partes bien diferenciadas, una parte teórica y otra más practica. La primera incluye la descripción geométrica y definición formal de curvas concoide, así como las ideas y propiedades básicas. De forma más precisa, se presenta un estudio matemático sobre el análisis de racionalidad de estas curvas, explicando los algoritmos que serán implementados en las segunda parte, y que constituye el objetivo principal de este proyecto. Para cerrar esta parte, se presenta una pequeña introducción al sistema y a la programación en Maple. Por otro lado, la segunda parte de este proyecto es totalmente original, y en ella el autor desarrolla las implementaciones en Maple de los algoritmos presentados en la parte anterior, así como la creación de un paquete Maple que las recoge. Por último, se crean las paginas de ayudas en el sistema Maple para la correcta utilización del paquete matemático anteriormente mencionado. Una vez terminada la parte de implementación, se aplican los algoritmos implementados a una colección de curvas clásicas conocidas, recogiendo los datos y resultados obtenidos en un atlas de curvas. Finalmente, se presenta una recopilación de las aplicaciones más destacadas en las que las concoides desempeñan un papel importante así como una breve reseña sobre las concoides de superficies, objeto de varios estudios en la actualidad y a los que se considera que el presente proyecto les puede resultar de gran utilidad. Abstract This project is set up in the framework of Symbolic Computation as well as in the implementation of algebraic-geometric problems that arise from Computer Aided Geometric Design (C.A.G.D.) applications. We address problems related to conchoid curves. The importance of these curves is the fundamental role that they play in current applications as medicine, optics, electromagnetism, construction, etc. The main goal of this project is to design and implement some algorithms to solve problems in studying, calculating and generating conchoid curves with symbolic computation techniques. For this purpose, we program our implementations in the symbolic system “Maple". The project consists of two differentiated parts, one more theoretical part and another part more practical. The first one includes the description of conchoid curves as well as the basic ideas about the concept and its basic properties. More precisely, we introduce in this part the mathematical analysis of the rationality of the conchoids, and we present the algorithms that will be implemented. Furthermore, the reader will be brie y introduced in Maple programming. On the other hand, the second part of this project is totally original. In this more practical part, the author presents the implemented algorithms and a Maple package that includes them, as well as their help pages. These implemented procedures will be check and illustrated with some classical and well known curves, collecting the main properties of the conchoid curves obtained in a brief atlas. Finally, a compilation of the most important applications where conchoids play a fundamental role, and a brief introduction to the conchoids of surfaces, subject of several studies today and where this project could be very useful, are presented.
Resumo:
El petróleo en Guinea Ecuatorial como en todo el mundo, es una fuente de energía agotable, pero de mucha importancia por la infinidad de usos de sus derivados. Por eso se necesita optimizar al máximo su producción de los yacimientos. En este proyecto se pretende descubrir qué parámetros variar en el yacimiento “QUA IBOE ESTE” del Campo Zafiro (Guinea Ecuatorial), con el fin de producir más crudo del inicialmente previsto. Para ello emplearemos el método de simulación, usando las herramientas que nos ofrecen los programas de simulación de yacimientos PETREL 2011.2 y ECLIPSE 100. Después de conocer cuántos barriles de petróleo, y metros cúbico de gas recuperaríamos de más, en el apartado económico, se busca conocer el total de beneficio se obtendría. ABSTRACT Oil in Equatorial Guinea and around the world, is an exhaustible energy source, but of great importance for the myriad uses of derivatives. We therefore need to optimize reservoir production. In this project we intend to discover which parameters vary in the field "QUA IBOE ESTE" Zafiro Field (Equatorial Guinea), in order to produce more oil than estimated. To do this we use the simulation method, using the tools that we provide the reservoir simulation programs Petrel 2011.2 and ECLIPSE 100. After knowing how many barrels of oil and cubic meters of gas would recover more in the economic section, we seek to know the total benefit would be obtained.
Resumo:
Wireless sensor networks (WSNs) consist of thousands of nodes that need to communicate with each other. However, it is possible that some nodes are isolated from other nodes due to limited communication range. This paper focuses on the influence of communication range on the probability that all nodes are connected under two conditions, respectively: (1) all nodes have the same communication range, and (2) communication range of each node is a random variable. In the former case, this work proves that, for 0menor queepsmenor quee^(-1) , if the probability of the network being connected is 0.36eps , by means of increasing communication range by constant C(eps) , the probability of network being connected is at least 1-eps. Explicit function C(eps) is given. It turns out that, once the network is connected, it also makes the WSNs resilient against nodes failure. In the latter case, this paper proposes that the network connection probability is modeled as Cox process. The change of network connection probability with respect to distribution parameters and resilience performance is presented. Finally, a method to decide the distribution parameters of node communication range in order to satisfy a given network connection probability is developed.
Resumo:
En este capítulo nos adentramos por la biblioteca de Matemáticas y Física de Leopoldo Calvo-Sotelo y Bustelo quien, durante toda su vida, demostró un interés permanente por los avances que se iban produciendo y una curiosidad inacabable por los descubrímientos que llegaban a su conocimiento. Como se verá, dentro de sus intereses figuran a lo largo de toda su existencia los relacionados con teorías físicas como la relatividad o la mecánica cuántica, así como con sus correspondientes aparatos matemáticos. Pero también lo relativo a las hipótesis cosmológicas y a los procesos termodinámicos irreversibles. Ello le hacía estar atento a todas las ocasiones que se presentaban para atender foros en los que se discutían estos temas, como las conmemoraciones en 2005, en la Residencia de Estudiantes del Consejo Superior de Investigaciones Científicas (CSIC) y en la Real Academia de Ciencias Exactas, Físicas y Naturales, del aniversario de la publicación del primer artículo de Einstein sobre Relatividad, o la ceremonia en que Ilia Prigogine fue nombrado Doctor Honoris Causa por la Universidad Nacional de Educación a Distancia el 15 de octubre de 1985. Creemos que ese deseo de conocimientos científicos tiene sus raíces en la etapa de estudiante en el Instituto Cervantes, en la Escuela Especial de Ingenieros de Caminos y en la fascinación ejercida por las lecciones de Zubiri, pues como el propio Calvo-Sotelo dice: «El estudiante de Matemáticas y de Física Teórica que fui quería buscar, más allá de las estructuras y de las ecuaciones, el sentido último de lo que estudiaba, precisamente porque la Física Matemática vivía por aquellos tiempos el apogeo de la revolución que habían hecho en ella hombres como Plank y Einstein». Por ello, comenzaremos con un análisis de las circunstancias personales en su etapa de formación en la Escuela de Caminos que, unida a sus declaraciones, permita comprender su entusiasmo y posterior dedicación al estudio de temas que sólo marginalmente habían formado parte de su carrera. A continuación, describiremos un somero panorama de la situación española e internacional de ambas ramas del conocimiento, para crear un fondo sobre el que situar las adquisiciones bibliográficas de nuestro protagonista en las diferentes etapas de su vida y, finalmente, intentaremos bosquejar unas conclusiones sobre la inquietud esencialmente intelectual que Leopoldo Calvo-Sotelo cultivó en estos campos.
Resumo:
Objective: This study assessed the efficacy of a closed-loop (CL) system consisting of a predictive rule-based algorithm (pRBA) on achieving nocturnal and postprandial normoglycemia in patients with type 1 diabetes mellitus (T1DM). The algorithm is personalized for each patient’s data using two different strategies to control nocturnal and postprandial periods. Research Design and Methods: We performed a randomized crossover clinical study in which 10 T1DM patients treated with continuous subcutaneous insulin infusion (CSII) spent two nonconsecutive nights in the research facility: one with their usual CSII pattern (open-loop [OL]) and one controlled by the pRBA (CL). The CL period lasted from 10 p.m. to 10 a.m., including overnight control, and control of breakfast. Venous samples for blood glucose (BG) measurement were collected every 20 min. Results: Time spent in normoglycemia (BG, 3.9–8.0 mmol/L) during the nocturnal period (12 a.m.–8 a.m.), expressed as median (interquartile range), increased from 66.6% (8.3–75%) with OL to 95.8% (73–100%) using the CL algorithm (P<0.05). Median time in hypoglycemia (BG, <3.9 mmol/L) was reduced from 4.2% (0–21%) in the OL night to 0.0% (0.0–0.0%) in the CL night (P<0.05). Nine hypoglycemic events (<3.9 mmol/L) were recorded with OL compared with one using CL. The postprandial glycemic excursion was not lower when the CL system was used in comparison with conventional preprandial bolus: time in target (3.9–10.0 mmol/L) 58.3% (29.1–87.5%) versus 50.0% (50–100%). Conclusions: A highly precise personalized pRBA obtains nocturnal normoglycemia, without significant hypoglycemia, in T1DM patients. There appears to be no clear benefit of CL over prandial bolus on the postprandial glycemia
Resumo:
Automatic blood glucose classification may help specialists to provide a better interpretation of blood glucose data, downloaded directly from patients glucose meter and will contribute in the development of decision support systems for gestational diabetes. This paper presents an automatic blood glucose classifier for gestational diabetes that compares 6 different feature selection methods for two machine learning algorithms: neural networks and decision trees. Three searching algorithms, Greedy, Best First and Genetic, were combined with two different evaluators, CSF and Wrapper, for the feature selection. The study has been made with 6080 blood glucose measurements from 25 patients. Decision trees with a feature set selected with the Wrapper evaluator and the Best first search algorithm obtained the best accuracy: 95.92%.
Resumo:
El objetivo de este proyecto es investigar la viabilidad del almacenamiento de CO2 en un acuífero salino profundo ubicado en el margen suroccidental de la Cuenca del Guadalquivir. Este proyecto está destinado a una operación industrial con tasas de emisión de CO2 superiores a medio millón de toneladas anuales. Se ha construido un modelo geológico de la formación almacén en Petrel y se ha simulado la inyección utilizando la versión composicional de ECLIPSE. El objetivo es inyectar CO2 manteniendo una tasa de inyección constante durante 30 años, el máximo periodo permitido por la legislación española sobre almacenamiento geológico de CO2. La cantidad de CO2 inyectada en cada uno de los casos ha sido determinada. Los resultados parecen indicar que la inyección de CO2 a escala industrial podría ser viable, aunque la viabilidad del proyecto podría verse comprometida por la escasa profundidad a la que se encuentra el contacto entre la formación almacén y el sello lateral. Antes de seguir adelante con el desarrollo del proyecto sería conveniente determinar mejor la continuidad lateral de la formación almacén y sus condiciones de sello. ABSTRACT The aim of this project is to investigate the feasibility of CO2 geological storage in a deep saline aquifer located onshore in the southwestern margin of Guadalquivir Basin. The project is addressed for an industrial scale operation with CO2 emission rates higher than half a million tons per year. A geological model of the target reservoir was built in Petrel and injection simulations were performed with the compositional version of ECLIPSE. The purpose is to inject CO2 at constant rate during 30 years, the maximum period allowed by the Spanish law on carbon dioxide geological storage. The amount of CO2 injected in each studied scenario has been determined. Results suggest that CO2 injection at industrial scale could be viable, but the project feasibility could be endangered by the shallow depth of the contact between the target reservoir and the lateral seal. Prior to injection, further work should include ascertaining the reservoir’s lateral continuity and better determination of its sealing conditions
Resumo:
The problem of parameterizing approximately algebraic curves and surfaces is an active research field, with many implications in practical applications. The problem can be treated locally or globally. We formally state the problem, in its global version for the case of algebraic curves (planar or spatial), and we report on some algorithms approaching it, as well as on the associated error distance analysis.
Resumo:
The conchoid of a surface F with respect to given xed point O is roughly speaking the surface obtained by increasing the radius function with respect to O by a constant. This paper studies conchoid surfaces of spheres and shows that these surfaces admit rational parameterizations. Explicit parameterizations of these surfaces are constructed using the relations to pencils of quadrics in R3 and R4. Moreover we point to remarkable geometric properties of these surfaces and their construction.
Resumo:
Topology control is an important technique to improve the connectivity and the reliability of Wireless Sensor Networks (WSNs) by means of adjusting the communication range of wireless sensor nodes. In this paper, a novel Fuzzy-logic Topology Control (FTC) is proposed to achieve any desired average node degree by adaptively changing communication range, thus improving the network connectivity, which is the main target of FTC. FTC is a fully localized control algorithm, and does not rely on location information of neighbors. Instead of designing membership functions and if-then rules for fuzzy-logic controller, FTC is constructed from the training data set to facilitate the design process. FTC is proved to be accurate, stable and has short settling time. In order to compare it with other representative localized algorithms (NONE, FLSS, k-Neighbor and LTRT), FTC is evaluated through extensive simulations. The simulation results show that: firstly, similar to k-Neighbor algorithm, FTC is the best to achieve the desired average node degree as node density varies; secondly, FTC is comparable to FLSS and k-Neighbor in terms of energy-efficiency, but is better than LTRT and NONE; thirdly, FTC has the lowest average maximum communication range than other algorithms, which indicates that the most energy-consuming node in the network consumes the lowest power.
Resumo:
El esquema actual que existe en el ámbito de la normalización y el diseño de nuevos estándares de codificación de vídeo se está convirtiendo en una tarea difícil de satisfacer la evolución y dinamismo de la comunidad de codificación de vídeo. El problema estaba centrado principalmente en poder explotar todas las características y similitudes entre los diferentes códecs y estándares de codificación. Esto ha obligado a tener que rediseñar algunas partes comunes a varios estándares de codificación. Este problema originó la aparición de una nueva iniciativa de normalización dentro del comité ISO/IEC MPEG, llamado Reconfigurable Video Coding (RVC). Su principal idea era desarrollar un estándar de codificación de vídeo que actualizase e incrementase progresivamente una biblioteca de los componentes, aportando flexibilidad y la capacidad de tener un código reconfigurable mediante el uso de un nuevo lenguaje orientado a flujo de Actores/datos denominado CAL. Este lenguaje se usa para la especificación de la biblioteca estándar y para la creación de instancias del modelo del decodificador. Más tarde, se desarrolló un nuevo estándar de codificación de vídeo denominado High Efficiency Video Coding (HEVC), que actualmente se encuentra en continuo proceso de actualización y desarrollo, que mejorase la eficiencia y compresión de la codificación de vídeo. Obviamente se ha desarrollado una visión de HEVC empleando la metodología de RVC. En este PFC, se emplean diferentes implementaciones de estándares empleando RVC. Por ejemplo mediante los decodificadores Mpeg 4 Part 2 SP y Mpeg 4 Part 10 CBP y PHP así como del nuevo estándar de codificación HEVC, resaltando las características y utilidad de cada uno de ellos. En RVC los algoritmos se describen mediante una clase de actores que intercambian flujos de datos (tokens) para realizar diferentes acciones. El objetivo de este proyecto es desarrollar un programa que, partiendo de los decodificadores anteriormente mencionados, una serie de secuencia de vídeo en diferentes formatos de compresión y una distribución estándar de los actores (para cada uno de los decodificadores), sea capaz de generar diferentes distribuciones de los actores del decodificador sobre uno o varios procesadores del sistema sobre el que se ejecuta, para conseguir la mayor eficiencia en la codificación del vídeo. La finalidad del programa desarrollado en este proyecto es la de facilitar la realización de las distribuciones de los actores sobre los núcleos del sistema, y obtener las mejores configuraciones posibles de una manera automática y eficiente. ABSTRACT. The current scheme that exists in the field of standardization and the design of new video coding standards is becoming a difficult task to meet the evolving and dynamic community of video encoding. The problem was centered mainly in order to exploit all the features and similarities between different codecs and encoding standards. This has forced redesigning some parts common to several coding standards. This problem led to the emergence of a new initiative for standardization within the ISO / IEC MPEG committee, called Reconfigurable Video Coding (RVC). His main idea was to develop a video coding standard and gradually incrementase to update a library of components, providing flexibility and the ability to have a reconfigurable code using a new flow -oriented language Actors / data called CAL. This language is used for the specification of the standard library and to the instantiation model decoder. Later, a new video coding standard called High Efficiency Video Coding (HEVC), which currently is in continuous process of updating and development, which would improve the compression efficiency and video coding is developed. Obviously has developed a vision of using the methodology HEVC RVC. In this PFC, different implementations using RVC standard are used. For example, using decoders MPEG 4 Part 2 SP and MPEG 4 Part 10 CBP and PHP and the new coding standard HEVC, highlighting the features and usefulness of each. In RVC, the algorithms are described by a class of actors that exchange streams of data (tokens) to perform different actions. The objective of this project is to develop a program that, based on the aforementioned decoders, a series of video stream in different compression formats and a standard distribution of actors (for each of the decoders), is capable of generating different distributions decoder actors on one or more processors of the system on which it runs, to achieve greater efficiency in video coding. The purpose of the program developed in this project is to facilitate the realization of the distributions of the actors on the cores of the system, and get the best possible settings automatically and efficiently.
Resumo:
Upper limb function impairment is one of the most common sequelae of central nervous system injury, especially in stroke patients and when spinal cord injury produces tetraplegia. Conventional assessment methods cannot provide objective evaluation of patient performance and the tiveness of therapies. The most common assessment tools are based on rating scales, which are inefficient when measuring small changes and can yield subjective bias. In this study, we designed an inertial sensor-based monitoring system composed of five sensors to measure and analyze the complex movements of the upper limbs, which are common in activities of daily living. We developed a kinematic model with nine degrees of freedom to analyze upper limb and head movements in three dimensions. This system was then validated using a commercial optoelectronic system. These findings suggest that an inertial sensor-based motion tracking system can be used in patients who have upper limb impairment through data integration with a virtual reality-based neuroretation system.