978 resultados para Ingenieros hidráulicos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los conjuntos bacterianos son sistemas dinámicos difíciles de modelar debido a que las bacterias colaboran e intercambian información entre sí. Estos microorganismos procariotas pueden tomar decisiones por mayoría e intercambiar información genética importante que, por ejemplo, las haga resistentes a un antibiótico. El proceso de conjugación consiste en el intercambio de un plásmido de una bacteria con otra, permitiendo así que se transfieran propiedades. Estudios recientes han demostrado que estos plásmidos pueden ser reprogramados artificialmente para que la bacteria que lo contenga realice una función específica [1]. Entre la multitud de aplicaciones que supone esta idea, el proyecto europeo PLASWIRES está intentando demostrar que es posible usar organismos vivos como computadores distribuidos en paralelo y plásmidos como conexión entre ellos mediante conjugación. Por tanto, mediante una correcta programación de un plásmido, se puede conseguir, por ejemplo, hacer que una colonia de bacterias haga la función de un antibiótico o detecte otros plásmidos peligrosos en bacterias virulentas. El proceso experimental para demostrar esta idea puede llegar a ser algo lento y tedioso, por lo que es necesario el uso de simuladores que predigan su comportamiento. Debido a que el proyecto PLASWIRES se basa en la conjugación bacteriana, surge la necesidad de un simulador que reproduzca esta operación. El presente trabajo surge debido a la deficiencia del simulador GRO para reproducir la conjugación. En este documento se detallan las modificaciones necesarias para que GRO pueda representar este proceso, así como analizar los datos obtenidos e intentar ajustar el modelo a los datos obtenidos por el Instituto de Biomedicina y Biotecnología de Cantabria (IBBTEC). ---ABSTRACT---Bacterial colonies are dynamical systems difficult to model because bacteria collaborate and exchange information with each other. These prokaryotic organisms can make decisions by majority and exchange important genetic information, for example, make them resistant to an antibiotic. The conjugation process is the exchange of a plasmid from one bacterium to another, allowing both to have the same properties. Recent studies have shown that these plasmids can be artificially reprogrammed to make the bacteria that contain it to perform a specific function [1]. Among the multitude of applications involved in this idea, the European project PLASWIRES is attempting to prove that it is possible to use living organisms as parallel and distributed computers with plasmids acting as connectors between them through conjugation. Thus, by properly programming a plasmid, you can get a colony of bacteria that work as an antibiotic or detect hazardous plasmids in virulent bacteria. The experimental process to prove this idea can be slow and tedious, so the use of simulators to predict their behavior is required. Since PLASWIRES project is based on bacterial conjugation, a simulator that can reproduce this operation is required. This work arises due to the absence of the conjugation process in the simulator GRO. This document details the changes made to GRO to represent this process, analyze the data and try to adjust the model to the data obtained by the Institute of Biomedicine and Biotechnology of Cantabria ( IBBTEC ). This project has two main objectives, the first is to add the functionality of intercellular communication by conjugation to the simulator GRO, and the second is to use the experimental data obtained by the IBBTEC. To do this, the following points should be followed: • Study of conjugation biology as a mechanism of intercellular communication. • Design and implementation of the algorithm that simulates conjugation. • Experimental validation and model adjust to the experimental data on rates of conjugation and bacterial growth.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde hace tiempo ha habido mucho interés en la automatización de todo tipo de tareas en las que la intervención humana es esencial para que sean completadas con éxito. Esto es de especial interés si además se ciertas tareas que pueden ser perfectamente reproducibles y, o bien requieren mucha formación, o bien consumen mucho tiempo. Este proyecto está dirigido a la búsqueda de métodos para automatizar la anotación de imágenes médicas. En concreto, se centra en el apartado de delimitación de las regiones de interés (ROIs) en imágenes de tipo PET siendo éstas usadas con frecuencia junto con las imágenes de tipo CT en el campo de oncología para delinear volúmenes afectados por cáncer. Se pretende con esto ayudar a los hospitales a organizar y estructurar las imágenes de sus pacientes y relacionarlas con las notas clínicas. Esto es lo que llamaremos el proceso de anotación de imágenes y la integración con la anotación de notas clínicas respectivamente. En este documento nos vamos a centrar en describir cuáles eran los objetivos iniciales, los pasos dados para su consecución y las dificultades encontradas durante el proceso. De todas las técnicas existentes en la literatura, se han elegido 4 técnicas de segmentación, 2 de ellas probadas en pacientes reales y las otras 2 probadas solo en phantoms según la literatura. En nuestro caso, las pruebas, se han realizado en imágenes PET de 6 pacientes reales diagnosticados de cáncer. Los resultados han sido analizados y presentados. ---ABSTRACT---For a long period of time, there has been an increasing interest in automation of tasks where human intervention is needed in order to succeed. This interest is even greater if those tasks must be solved by qualifed specialists in the area and the task is reproducible or if the task is too time consuming. The main objective of this project is to find methods which can help to automate medical image annotation processes. In our specific case, we are willing to delineate regions of interest (ROIs) in PET images which are frequently used simultaneaously ith CT images in oncology to determine those volumes that are afected by cancer. With this process we want to help hospitals organize and have from their patient studies and to relate these images to the corpus annotations. We may call this the image annotation process and the integration with the corpus annotation respectively. In this document we are going to concentrate in the description of the initial objectives, the steps we had to go through and the di�culties we had to face during this process. From all existing techniques in the literature, 4 segmentation techniques have been chosen, 2 of them were tested in real patients and the other 2 were tested using phantoms according to the literature. In our case, the tests have been done using PET images from 6 real patients diagnosed with cancer. The results have been analyzed and presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo fin de grado es un estudio sobre la reconstrucción del espectro de irradiancia solar en la superficie de Marte y de la radiación solar recibida en lo alto de la atm´osfera. Se llevará a cabo a partir de los datos recogidos por “arrays” de fotodiodos, que se integran en unos sensores, y miden la intensidad de la radiación recibida del cuerpo negro (el Sol), en un rango de longitudes de onda del espectro electromagnético. Para lograr esta reconstrucción, se ha necesitado desarrollar técnicas de interpolación y modelos matemáticos. Estos m´etodos los he implementado con el lenguaje de programación Matlab y me he ayudado de Maple para conseguir distintos resultados. Estos procedimientos serán aplicados a tres configuraciones de sondas en las que cada una cuenta con un número determinado de fotodiodos. El objetivo es reconstruir este espectro de irradiancia aproximándolo lo máximo posible a unos conjuntos de datos estimados, según modelos de transferencia radiativa, que me han sido proporcionados para el cuerpo negro y que miden la radiación solar recibida en la superficie y en lo alto de la atmósfera del Planeta rojo. Este trabajo está basado en un proyecto de investigación que se está llevando a cabo desde hace varios años por un equipo de investigadores de varias universidades de Madrid, conjuntamente con el I.N.T.A. (Instituto Nacional de Técnica Aeroespacial), entre los que se encuentra mi tutor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los lenguajes de programación son el idioma que los programadores usamos para comunicar a los computadores qué queremos que hagan. Desde el lenguaje ensamblador, que traduce una a una las instrucciones que interpreta un computador hasta lenguajes de alto nivel, se ha buscado desarrollar lenguajes más cercanos a la forma de pensar y expresarse de los humanos. Los lenguajes de programación lógicos como Prolog utilizan a su vez el lenguaje de la lógica de 1er orden de modo que el programador puede expresar las premisas del problema que se quiere resolver sin preocuparse del cómo se va a resolver dicho problema. La resolución del problema se equipara a encontrar una deducción del objetivo a alcanzar a partir de las premisas y equivale a lo que entendemos por la ejecución de un programa. Ciao es una implementación de Prolog (http://www.ciao-lang.org) y utiliza el método de resolución SLD, que realiza el recorrido de los árboles de decisión en profundidad(depth-first) lo que puede derivar en la ejecución de una rama de busqueda infinita (en un bucle infinito) sin llegar a dar respuestas. Ciao, al ser un sistema modular, permite la utilización de extensiones para implementar estrategias de resolución alternativas como la tabulación (OLDT). La tabulación es un método alternativo que se basa en memorizar las llamadas realizadas y sus respuestas para no repetir llamadas y poder usar las respuestas sin recomputar las llamadas. Algunos programas que con SLD entran en un bucle infinito, gracias a la tabulación dán todas las respuestas y termina. El modulo tabling es una implementación de tabulación mediante el algoritmo CHAT. Esta implementación es una versión beta que no tiene implementado un manejador de memoria. Entendemos que la gestión de memoria en el módulo de tabling tiene gran importancia, dado que la resolución con tabulación permite reducir el tiempo de computación (al no repetir llamadas), aumentando los requerimientos de memoria (para guardar las llamadas y las respuestas). Por lo tanto, el objetivo de este trabajo es implementar un mecanismo de gestión de la memoria en Ciao con el módulo tabling cargado. Para ello se ha realizado la implementación de: Un mecanismo de captura de errores que: detecta cuando el computador se queda sin memoria y activa la reinicialización del sitema. Un procedimiento que ajusta los punteros del modulo de tabling que apuntan a la WAM tras un proceso de realojo de algunas de las áreas de memoria de la WAM. Un gestor de memoria del modulo de tabling que detecta c realizar una ampliación de las áreas de memoria del modulo de tabling, realiza la solicitud de más memoria y realiza el ajuste de los punteros. Para ayudar al lector no familiarizado con este tema, describimos los datos que Ciao y el módulo de tabling alojan en las áreas de memoria dinámicas que queremos gestionar. Los casos de pruebas desarrollados para evaluar la implementación del gestor de memoria, ponen de manifiesto que: Disponer de un gestor de memoria dinámica permite la ejecución de programas en un mayor número de casos. La política de gestión de memoria incide en la velocidad de ejecución de los programas. ---ABSTRACT---Programming languages are the language that programmers use in order to communicate to computers what we want them to do. Starting from the assembly language, which translates one by one the instructions to the computer, and arriving to highly complex languages, programmers have tried to develop programming languages that resemble more closely the way of thinking and communicating of human beings. Logical programming languages, such as Prolog, use the language of logic of the first order so that programmers can express the premise of the problem that they want to solve without having to solve the problem itself. The solution to the problem is equal to finding a deduction of the objective to reach starting from the premises and corresponds to what is usually meant as the execution of a program. Ciao is an implementation of Prolog (http://www.ciao-lang.org) and uses the method of resolution SLD that carries out the path of the decision trees in depth (depth-frist). This can cause the execution of an infinite searching branch (an infinite loop) without getting to an answer. Since Ciao is a modular system, it allows the use of extensions to implement alternative resolution strategies, such as tabulation (OLDT). Tabulation is an alternative method that is based on the memorization of executions and their answers, in order to avoid the repetition of executions and to be able to use the answers without reexecutions. Some programs that get into an infinite loop with SLD are able to give all the answers and to finish thanks to tabulation. The tabling package is an implementation of tabulation through the algorithm CHAT. This implementation is a beta version which does not present a memory handler. The management of memory in the tabling package is highly important, since the solution with tabulation allows to reduce the system time (because it does not repeat executions) and increases the memory requirements (in order to save executions and answers). Therefore, the objective of this work is to implement a memory management mechanism in Ciao with the tabling package loaded. To achieve this goal, the following implementation were made: An error detection system that reveals when the computer is left without memory and activate the reinizialitation of the system. A procedure that adjusts the pointers of the tabling package which points to the WAM after a process of realloc of some of the WAM memory stacks. A memory manager of the tabling package that detects when it is necessary to expand the memory stacks of the tabling package, requests more memory, and adjusts the pointers. In order to help the readers who are not familiar with this topic, we described the data which Ciao and the tabling package host in the dynamic memory stacks that we want to manage. The test cases developed to evaluate the implementation of the memory manager show that: A manager for the dynamic memory allows the execution of programs in a larger number of cases. Memory management policy influences the program execution speed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

España cuenta con un vasto catálogo de patrimonio edificado en obra de fábrica, tanto en el ámbito religioso como en el civil, que recorre un largo camino histórico desde épocas grecorromanas hasta principios del siglo XX. A lo largo de todos estos siglos, la introducción de nuevos materiales como el hormigón o el acero desplazaron el uso del ladrillo y de la piedra en estructuras a situaciones muy puntuales, lo que llevó durante mucho tiempo al olvido de las técnicas propias de estos materiales y a la ausencia de desarrollo de ensayos y estudios sobre ellos. De hecho, no se trata de una situación únicamente española, sino generalizada a nivel internacional. Todo esto, unido a la dificultad de caracterizar convenientemente los materiales componentes y la interfaz, a la gran variedad de patologías que pueden afectar a las fábricas y a la actuación de cargas de largo periodo de retorno, ha provocado que los arquitectos e ingenieros actuales carezcan de herramientas y de un marco normativo adecuados a la hora de aproximarse a este tipo de edificios. La consecuencia directa ha sido la profusión de ejemplos de intervenciones erróneas en los edificios históricos, tanto desde el punto de vista estructural como estético. Se hace, pues, perentorio desarrollar métodos de cálculo y de investigación que proporcionen las herramientas necesarias para ello y devuelvan el interés profesional y académico hacia la obra de fábrica entendida como material estructural. A raíz de lo expuesto anteriormente, el objeto de este trabajo es el de analizar el comportamiento estático de un edificio histórico desde varios puntos de vista: - La caracterización de los materiales. - El comportamiento de los elementos estructurales aislados. - El comportamiento del sistema estructural, tanto en su configuración actual como en su evolución a lo largo de las diversas reformas sufridas. - Las patologías observadas y la adecuación de los cálculos realizados a las mismas. La intención es la de establecer pautas de estudio y herramientas aplicables a otros edificios y situaciones, pero sin propósito de generalización. La metodología utilizada es la del Cálculo Límite o Rígido-plástico, de tipo I, basado en hallar la línea de acción de los empujes en el interior de la fábrica, y que será definido más adelante. Se ha escogido este método porque aúna la economía de medios y la necesidad de pocos datos, fundamentalmente geométricos, con el aporte de información muy valiosa sobre el nivel de cargas y el modo en que responde la estructura. Se renuncia desde el principio a realizar análisis de tipo II y tipo III, por considerar que resultan excesivamente laboriosos en comparación con la información que se busca. Además, de las propias líneas de empuje obtenidas se pueden inferir, que no determinar, tensiones y deformaciones en el edificio, especialmente a través del procedimiento de cálculo utilizado en la asignatura Conservación y Rehabilitación de Estructuras Históricas, de este máster, impartida por el profesor D. Javier León González, por el que se obtiene, no una trayectoria de empujes, sino todas las posibles a través de una serie de valores límites. Para este trabajo se ha elegido la Iglesia Parroquial de Nuestra Señora de la Oliva, de Lebrija, provincia de Sevilla, por varios motivos. De un lado, se trata de un edificio encuadrado en un momento histórico, el de la conquista castellana de los territorios de Al-Ándalus, en el que se construyen numerosos edificios religiosos y civiles con los que comparte muchas de sus características. Por otro lado, y dentro del mismo contexto, sus particularidades lo convierten en un ejemplo claramente diferenciado y catálogo de soluciones constructivas y estructurales. Por último, se trata de una construcción que ha ido evolucionando en el tiempo, aportando lenguajes y técnicas diferentes, pero que conviven en gran armonía, sin que haya perdido su unicidad en ningún momento (salvo por pequeños elementos en mi opinión disonantes) desde el núcleo original de tipo mudéjar alfonsí (s. XIII) hasta la construcción de su torre campanario en el s. XVIII, pasando por ampliaciones y modificaciones en los siglos XIV a XVII. El ámbito de este trabajo se limita al núcleo mudéjar original junto con la ampliación renacentista del salón principal. Se excluyen por tanto la sacristía y dependencias anexas, la torre campanario y los patios, por ser elementos independientes del resto del conjunto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gender detection is a very important objective to improve efficiency in tasks as speech or speaker recognition, among others. Traditionally gender detection has been focused on fundamental frequency (f0) and cepstral features derived from voiced segments of speech. The methodology presented here consists in obtaining uncorrelated glottal and vocal tract components which are parameterized as mel-frequency coefficients. K-fold and cross-validation using QDA and GMM classifiers showed that better detection rates are reached when glottal source and vocal tract parameters are used in a gender-balanced database of running speech from 340 speakers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Situado en el límite entre Ingeniería, Informática y Biología, la mecánica computacional de las neuronas aparece como un nuevo campo interdisciplinar que potencialmente puede ser capaz de abordar problemas clínicos desde una perspectiva diferente. Este campo es multiescala por naturaleza, yendo desde la nanoescala (como, por ejemplo, los dímeros de tubulina) a la macroescala (como, por ejemplo, el tejido cerebral), y tiene como objetivo abordar problemas que son complejos, y algunas veces imposibles, de estudiar con medios experimentales. La modelización computacional ha sido ampliamente empleada en aplicaciones Neurocientíficas tan diversas como el crecimiento neuronal o la propagación de los potenciales de acción compuestos. Sin embargo, en la mayoría de los enfoques de modelización hechos hasta ahora, la interacción entre la célula y el medio/estímulo que la rodea ha sido muy poco explorada. A pesar de la tremenda importancia de esa relación en algunos desafíos médicos—como, por ejemplo, lesiones traumáticas en el cerebro, cáncer, la enfermedad del Alzheimer—un puente que relacione las propiedades electrofisiológicas-químicas y mecánicas desde la escala molecular al nivel celular todavía no existe. Con ese objetivo, esta investigación propone un marco computacional multiescala particularizado para dos escenarios respresentativos: el crecimiento del axón y el acomplamiento electrofisiológicomecánico de las neuritas. En el primer caso, se explora la relación entre los constituyentes moleculares del axón durante su crecimiento y sus propiedades mecánicas resultantes, mientras que en el último, un estímulo mecánico provoca deficiencias funcionales a nivel celular como consecuencia de sus alteraciones electrofisiológicas-químicas. La modelización computacional empleada en este trabajo es el método de las diferencias finitas, y es implementada en un nuevo programa llamado Neurite. Aunque el método de los elementos finitos es también explorado en parte de esta investigación, el método de las diferencias finitas tiene la flexibilidad y versatilidad necesaria para implementar mode los biológicos, así como la simplicidad matemática para extenderlos a simulaciones a gran escala con un coste computacional bajo. Centrándose primero en el efecto de las propiedades electrofisiológicas-químicas sobre las propiedades mecánicas, una versión adaptada de Neurite es desarrollada para simular la polimerización de los microtúbulos en el crecimiento del axón y proporcionar las propiedades mecánicas como función de la ocupación de los microtúbulos. Después de calibrar el modelo de crecimiento del axón frente a resultados experimentales disponibles en la literatura, las características mecánicas pueden ser evaluadas durante la simulación. Las propiedades mecánicas del axón muestran variaciones dramáticas en la punta de éste, donde el cono de crecimiento soporta las señales químicas y mecánicas. Bansándose en el conocimiento ganado con el modelo de diferencias finitas, y con el objetivo de ir de 1D a 3D, este esquema preliminar pero de una naturaleza innovadora allana el camino a futuros estudios con el método de los elementos finitos. Centrándose finalmente en el efecto de las propiedades mecánicas sobre las propiedades electrofisiológicas- químicas, Neurite es empleado para relacionar las cargas mecánicas macroscópicas con las deformaciones y velocidades de deformación a escala microscópica, y simular la propagación de la señal eléctrica en las neuritas bajo carga mecánica. Las simulaciones fueron calibradas con resultados experimentales publicados en la literatura, proporcionando, por tanto, un modelo capaz de predecir las alteraciones de las funciones electrofisiológicas neuronales bajo cargas externas dañinas, y uniendo lesiones mecánicas con las correspondientes deficiencias funcionales. Para abordar simulaciones a gran escala, aunque otras arquitecturas avanzadas basadas en muchos núcleos integrados (MICs) fueron consideradas, los solvers explícito e implícito se implementaron en unidades de procesamiento central (CPU) y unidades de procesamiento gráfico (GPUs). Estudios de escalabilidad fueron llevados acabo para ambas implementaciones mostrando resultados prometedores para casos de simulaciones extremadamente grandes con GPUs. Esta tesis abre la vía para futuros modelos mecánicos con el objetivo de unir las propiedades electrofisiológicas-químicas con las propiedades mecánicas. El objetivo general es mejorar el conocimiento de las comunidades médicas y de bioingeniería sobre la mecánica de las neuronas y las deficiencias funcionales que aparecen de los daños producidos por traumatismos mecánicos, como lesiones traumáticas en el cerebro, o enfermedades neurodegenerativas como la enfermedad del Alzheimer. ABSTRACT Sitting at the interface between Engineering, Computer Science and Biology, Computational Neuron Mechanics appears as a new interdisciplinary field potentially able to tackle clinical problems from a new perspective. This field is multiscale by nature, ranging from the nanoscale (e.g., tubulin dimers) to the macroscale (e.g., brain tissue), and aims at tackling problems that are complex, and sometime impossible, to study through experimental means. Computational modeling has been widely used in different Neuroscience applications as diverse as neuronal growth or compound action potential propagation. However, in the majority of the modeling approaches done in this field to date, the interactions between the cell and its surrounding media/stimulus have been rarely explored. Despite of the tremendous importance of such relationship in several medical challenges—e.g., traumatic brain injury (TBI), cancer, Alzheimer’s disease (AD)—a bridge between electrophysiological-chemical and mechanical properties of neurons from the molecular scale to the cell level is still lacking. To this end, this research proposes a multiscale computational framework particularized for two representative scenarios: axon growth and electrophysiological-mechanical coupling of neurites. In the former case, the relation between the molecular constituents of the axon during its growth and its resulting mechanical properties is explored, whereas in the latter, a mechanical stimulus provokes functional deficits at cell level as a consequence of its electrophysiological-chemical alterations. The computational modeling approach chosen in this work is the finite difference method (FDM), and was implemented in a new program called Neurite. Although the finite element method (FEM) is also explored as part of this research, the FDM provides the necessary flexibility and versatility to implement biological models, as well as the mathematical simplicity to extend them to large scale simulations with a low computational cost. Focusing first on the effect of electrophysiological-chemical properties on the mechanical proper ties, an adaptation of Neurite was developed to simulate microtubule polymerization in axonal growth and provide the axon mechanical properties as a function of microtubule occupancy. After calibrating the axon growth model against experimental results available in the literature, the mechanical characteristics can be tracked during the simulation. The axon mechanical properties show dramatic variations at the tip of the axon, where the growth cone supports the chemical and mechanical signaling. Based on the knowledge gained from the FDM scheme, and in order to go from 1D to 3D, this preliminary yet novel scheme paves the road for future studies with FEM. Focusing then on the effect of mechanical properties on the electrophysiological-chemical properties, Neurite was used to relate macroscopic mechanical loading to microscopic strains and strain rates, and simulate the electrical signal propagation along neurites under mechanical loading. The simulations were calibrated against experimental results published in the literature, thus providing a model able to predict the alteration of neuronal electrophysiological function under external damaging load, and linking mechanical injuries to subsequent acute functional deficits. To undertake large scale simulations, although other state-of-the-art architectures based on many integrated cores (MICs) were considered, the explicit and implicit solvers were implemented for central processing units (CPUs) and graphics processing units (GPUs). Scalability studies were done for both implementations showing promising results for extremely large scale simulations with GPUs. This thesis opens the avenue for future mechanical modeling approaches aimed at linking electrophysiological- chemical properties to mechanical properties. Its overarching goal is to enhance the bioengineering and medical communities knowledge on neuronal mechanics and functional deficits arising from damages produced by direct mechanical insults, such as TBI, or neurodegenerative evolving illness, such as AD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es conocido que la variación del comportamiento dinámico de las estructuras puede ser empleado dentro de un sistema de monitorización de su integridad estructural. Así, este estudio tiene como objetivo comprender el comportamiento dinámico de edificios esbeltos, frente a diferentes agentes ambientales como la temperatura y/o dirección y velocidad del viento. En el marco de esta investigación, se estudian dos edificios: la Torre de la ETSI (Escuela Técnica Superior de Ingenieros) de Caminos, Canales y Puertos de la UPM (Universidad Politécnica de Madrid) y un edificio de viviendas situado en la calle de Arturo Soria de Madrid. Los datos medioambientales antes mencionados, se registraron con sendas estacionales meteorológicas situadas en las azoteas de ambos edificios. Se realiza el análisis modal operacional de ambas estructuras. Este análisis se realiza a partir de las mediciones de las aceleraciones ante excitaciones ambientales, es un análisis basado sólo en la respuesta de la estructura. Por tanto, no es necesario interrumpir el funcionamiento en servicio de la instalación, obteniendo su comportamientos en este estado. A partir de este análisis, se obtienen las frecuencias naturales, los amortiguamientos modales y las formas modales. Así, en este trabajo se ha estudiado la relación existente entre la variación en la estimación de las frecuencias naturales y la variación de los agentes ambientales (fundamentalmente la temperatura). Los ensayos dinámicos en los dos edificios mencionados anteriormente, se han realizado utilizando acelerómetros de alta sensibilidad sincronizados inalámbricamente, lo cual ha simplificado el trabajo experimental si lo comparamos con los sistemas tradicionales. Como resultado del trabajo realizado se pueden destacar los siguientes puntos: (i) se ha visto que con el equipamiento disponible se pueden realizar análisis dinámicos de edificios, (ii) se ha mejorado el conocimiento dinámico de estas estructuras, y (iii) se ha visto la importancia que pueden tener los agentes ambientales dependiendo por un lado del tipo estructura del edificio. A partir del trabajo, se podrían actualizar modelos matemáticos que sirvan para la predicción de daños en las estructuras, y por otro, se podrán eliminar los efectos de los agentes ambientales, lo cual es un punto vital si se quiere emplear los parámetros modales para el cálculo de indices de daño. La aplicación de este tipo de investigación ayudará a tener una información mayor sobre el comportamiento de las estructuras y así, en el futuro, poder realizar distintos tipos de procesos, como la formulación de modelos matemáticos que reflejen con mayor fidelidad el comportamiento real. De esta forma, la monitorización de los agentes medioambientales permitirán valorar la influencia de estas variaciones sobre la estructura pudiéndose eliminar estos efectos. Con ello, se mejora la incertidumbre en la variación de frecuencias que puede ser utilizada como un sistema de activación de alarmas frente a la detección de daños estructurales. It is known that the variation of the dynamic behavior of structures can be used within a system to monitor structural integrity. So, this study aims to understand the dynamic behavior of slender buildings, against different environmental agents such as temperature and / or wind direction and velocity. As part of this investigation, two buildings are studied: the ETSI's (Escuela Técnica Superior de Ingenieros) main tower of Escuela de Caminos, Canales y Puertos of UPM (Universidad Politécnica de Madrid) and a residential building located in the streets Arturo Soria Madrid. The environmental data were recorded with weather stations located on the roof of both buildings. In both structures a modal operational analysis has been carried out. This analysis is performed from the measurements of the acceleration to the environmental excitation, this analysis is based only on the response of the structure. Therefore, it is not necessary to interrupt the operation of the structure, getting its behavior in this state. From this analysis, the natural frequencies, modal damping and mode shapes are obtained. So, in this work we have studied the existing relationship between the variation in the estimate of the natural frequencies and the variation of environmental agents (mainly temperature). The dynamic tests in the two buildings mentioned above, have been made using high-sensitivity accelerometers wirelessly synchronized, which has simplified the experimental work when compared to traditional systems. As a result of work performed can highlight the following points: (i) it has been found that with the available equipment can perform dynamic analysis of buildings, (ii) has improved dynamic knowledge of these structures, and, (iii) can be seen the potential importance of environmental agents depending on the type of building structure. From the work, mathematical models can be updated that serve to prediction of damage to structures, and on the other side, may eliminate the effects of environmental agents, which is a vital point if you want to use the modal parameters for calculating damage ratings. The application of this type of research will help to have more information about the behavior of structures and so, in the future, conduct various processes, as the formulation of mathematical models that reflect more accurately an actual behavior. In this way the monitoring of environmental agents will allow evaluate the influence of these variations on the structure being possible eliminate these effects. Thereby, improvement the uncertainty in the frequencies variation that can be used as an alarm activation system from detection of structural damage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Museo Histórico Minero Don Felipe de Borbón y Grecia tiene como principal objetivo conservar y dar a conocer el rico patrimonio de la Escuela Técnica Superior de Ingenieros de Minas, de la Universidad Politécnica de Madrid. A lo largo de sus 227 años de vida, en la Escuela se han acumulado materiales variados (minerales y rocas, fósiles, conchas, instrumentos de medición y enseñanza, lámparas de mina, maquetas de procesos industriales y mineros, valiosos libros históricos, mapas y documentos, cartas y apuntes, piezas arqueológicas...) que se trata de preservar cuidadosamente, en primer lugar por su alto valor intrínseco (científico, industrial, histórico), pero también porque constituyen el testimonio de las aportaciones de muchos ingenieros, profesores, geólogos y, en general, personas vinculadas con la Institución, que a lo largo de estos dos siglos largos han dejado en ella lo mejor de sus vidas profesionales. Un museo de estas características es singular por sus contenidos, y muy difícil de clasificar. Es, desde luego, histórico, y tal es el principal sentido que se le pretende dar en la actualidad. Pero también es, o pretende ser, didáctico y universitario, porque no renuncia a la función docente y formativa que puede derivarse de la adecuada exposición de sus contenidos. A la vez público (por su pertenencia a la Universidad y su apertura al público en general) y privado (porque su origen está en colecciones cedidas a la Escuela por particulares para fines específicos). Es un Museo de Ciencias y de la Ciencia, porque una parte importante de sus colecciones está formada por ejemplares de minerales, fósiles y rocas, y porque contiene elementos que han servido para generar y transmitir la ciencia desde finales del siglo XVIII. A aquéllos que lean este libro les puede sorprender la presencia en el Museo de una rica y variada, aunque no muy extensa, colección de piezas arqueológicas. La explicación debe buscarse en el origen y desarrollo de las investigaciones arqueológicas en España, que tiene lugar en el siglo XIX. En los primeros estudios arqueológicos tuvieron un papel destacado algunos ilustres ingenieros de minas, profesores de la Escuela, como D. Guillermo Schulz y D. Casiano de Prado. Muchas publicaciones suyas avalan su gran conocimiento y profundo interés por la Arqueología naciente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad se está viviendo el auge del Cloud Computing (Computación en la Nube) y cada vez son más las empresas importantes en el sector de las Tecnologías de la Información que apuestan con fuerza por estos servicios. Por un lado, algunas ofrecen servicios, como Amazon y su sistema IaaS (Infrastructure as a Service) Amazon Web Services (AWS); por otro, algunas los utilizan, como ocurre en el caso de este proyecto, en el que Telefonica I+D hace uso de los servicios proporcionados por AWS para sus proyectos. Debido a este crecimiento en el uso de las aplicaciones distribuidas es importante tener en cuenta el papel que desempeñan los desarrolladores y administradores de sistemas que han de trabajar y mantener todas las máquinas remotas de uno o varios proyectos desde una única máquina local. El ayudar a realizar estas tareas de la forma más cómoda y automática posible es el objetivo principal de este proyecto. En concreto, el objetivo de este proyecto es el diseño y la implementación de una solución software que ayude a la productividad en el desarrollo y despliegue de aplicaciones en un conjunto de máquinas remotas desde una única máquina local, teniendo como base una prueba de concepto realizada anteriormente que prueba las funcionalidades más básicas de las librerías utilizadas para el desarrollo de la herramienta. A lo largo de este proyecto se han estudiado las diferentes alternativas que se encuentran en el mercado que ofrecen al menos parte de la soluci6n a los problemas abordados, pese a que los requisitos de la empresa indicaban que la herramienta debía implementarse de forma completa. Se estudió a fondo después la prueba de concepto de la que se partía para, con los conocimientos adquiridos sobre el tema, mejorarla cumpliendo los objetivos marcados. Tras el desarrollo y la implementaci6n completa de la herramienta se proponen posibles caminos a seguir en el futuro. ---ABSTRACT---Nowadays we are experiencing the rise of Cloud Computing and every day more and more important IT companies are betting hard for this kind of services. On one hand, some of these companies offer services such as Amazon IaaS (Infrastructure as a Service) system Amazon Web Services (AWS); on the other hand, some of them use these services, as in the case of this project, in which Telefonica I+D uses the services provided by AWS in their projects. Due this growth in the use of distributed applications it is important to consider the developers and system administrators' roles, who have to work and do the maintenance of all the remote machines from one or several projects from a single local machine. The main goal of this project is to help with these tasks making them as comfortable and automatically as possible. Specifically, the goal of this project is the design and implementation of a software solution that helps to achieve a better productivity in the development of applications on a set of remote machines from a single local machine, based on a proof of concept developed before, in which the basic functionality of the libraries used in this tool were tested. Throughout this project the different alternatives on the market that offer at least part of the solution to the problem addressed have been studied, although according to the requirements of the company, the tool should be implemented from scratch. After that, the basic proof of concept was thoroughly studied and improved with the knowledge acquired on the subject, fulfilling the marked goals. Once the development and full implementation of the tool is done, some ways of improvement for the future are suggested.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Debido a la creciente relevancia de la computación en la nube y de los sistemas distribuidos, cobran también creciente interés las herramientas que ayudan a los desarrolladores y administradores a desempeñar sus funciones con la mayor eficacia posible. Por ello el objetivo principal de este trabajo es el desarrollo de una herramienta capaz de crear y controlar un entorno de almacenamiento de claves distribuidas desde una máquina local e independiente, aumentando la productividad mediante la automatización de todas las tareas. La herramienta desarrollada tiene la capacidad necesaria para integrarse tanto en proyectos que se encuentren en marcha como para proyectos que aún no hayan comenzado y proveer una solución sencilla, eficaz, y, sobre todo, útil. A lo largo del trabajo se ha realizado una gran tarea de análisis para determinar cuáles serán, de entre las posibilidades existentes, las más apropiadas para su implementación, teniendo en cuenta las tecnologías líderes disponibles en el estado del arte. Ello ha requerido también la obtención de una mejor comprensión de su funcionamiento interno. Se han realizado diferentes diseños que se han analizado y discutido en detalle para encontrar la solución que mejor se adaptaba a los objetivos propuestos. Y finalmente se ha desarrollado una herramienta ligera y sencilla, pero con un gran potencial para la administración. ---ABSTRACT---Due to the growing relevance of cloud computing and distributed systems it seems interesting to take into account the importance of the administration tools that help developers and administrators fulfill their duties in the most efficient ways. Because of this motivation, the main objective of this project is the development of a tool capable of creating and controlling a distributed key storing environment from a local and independent machine, improving the productivity thanks to the automation of all the involved tasks. The developed tool is able to integrate itself into already running projects as well as in not-yet-started ones, providing a simple, efficient and overall useful solution. During this project big tasks of research and analysis have taken place in order to determine, from the existent possibilities, the most suitable for its implementation, taking into account the leading technologies in the sector, which are described in the state of the art section. This has required the acquisition of a better insight of their inner workings. Some different designs have been made and have been discussed in detail with the intention of finding the solution that best suits the proposed objectives. And finally a lightweight and simple tool has been developed, which presents a very big potential for administration tasks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La realidad aumentada educativa es una tecnología que actualmente está mejorando la calidad de enseñanza, la utilización de dispositivos móviles permite que el estudiante sea protagonista de su aprendizaje sin estar confinado a un espacio o tiempo específico para aprender. Aplicaciones colaborativas con realidad aumentada están siendo empleadas cada vez más en la educación, de tal forma que fomentan el trabajo en grupo donde los estudiantes comparten conocimiento, dudas, opiniones logrando un mejor nivel cognitivo que trabajando individualmente. En este trabajo se presenta el estado de la cuestión de Aplicaciones Educativas con Realidad Aumentada en dispositivos móviles, y Aplicaciones Educativas colaborativas con Realidad Aumentada, desarrolladas desde el 2002 e implementadas en instituciones educativas. Así mismo se realiza un estudio sobre la Realidad Aumentada, Realidad Aumentada móvil y Aprendizaje Móvil. Además, a partir de las características del estudio de las aplicaciones con Realidad Aumenta, se realiza un análisis y diseño de una Aplicación Móvil para el proyecto de inicio de los alumnos de nuevo ingreso de la UPM. Así como también una herramienta de autoría para las gestiones de las actividades propuestas por los docentes de la UPM. Finalmente se presenta un caso de prueba en el que se implementa parte de la propuesta de este trabajo, logrando construir un parte funcional para el proyecto inicial denominado PIANI – UPM. ---ABSTRACT---Educational Augmented reality is a technology that is improving the quality of teaching, use of mobile devices enables the student to be protagonists of their learning without being confined to a specific space or time to learn. Collaborative augmented reality applications applied in education are being used gradually encourage group work where students share knowledge, doubts, opinions so they achieve better cognitive level than working individually. In this paper the description of educational applications is presented with Augmented Reality using mobile devices, and collaborative educational Augmented Reality applications, developed since 2002 and implemented in educational institutions. Also a study on Augmented Reality, Mobile Augmented Reality and Mobile Learning is performed. Furthermore, from the study of the characteristics of Reality applications increases, an analysis and design of a mobile application for the proposed start of new students of UPM is performed. As well as an authoring tool for the efforts of the activities proposed by the teachers of the UPM. Finally a test case is presented in which part of the proposal of this work is implemented, obtaining building an initial prototype called PIANI - UPM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Trabajo de Fin de Grado recoge el diseño e implementación de un compilador y una librería de entorno de ejecución para el lenguaje específico del dominio TESL, un lenguaje de alto nivel para el análisis de series temporales diseñado por un grupo de investigación de la Universidad Politécnica de Madrid. Este compilador es el primer compilador completo disponible para TESL y sirve como base para la continuación del desarrollo del lenguaje, estando ideado para permitir su adaptación a cambios en el mismo. El compilador ha sido implementado en Java siguiendo la arquitectura clásica para este tipo de aplicaciones, incluyendo un Analizador Léxico, Sintáctico y Semántico, así como un Generador de Código. Se ha documentado su arquitectura y las decisiones de diseño que han conducido a la misma. Además, se ha demostrado su funcionamiento con un caso práctico de análisis de eventos en métricas de servidores. Por último, se ha documentado el lenguaje TESL, en cuyo desarrollo se ha colaborado. ---ABSTRACT---This Bachelor’s Thesis describes the design and implementation of a compiler and a runtime library for the domain-specific language TESL, a high-level language for analyzing time series events developed by a research group from the Technical University of Madrid. This is the first fully implemented TESL compiler, and serves as basis for the continuation of the development of the language. The compiler has been implemented in Java following the classical architecture for this kind of systems, having a four phase compilation with a Lexer, a Parser, a Semantic Analyzer and a Code Generator. Its architecture and the design decisions that lead to it have been documented. Its use has been demonstrated in an use-case in the domain of server metrics. Finally, the TESL language itself has been extended and documented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, y en todo el mundo, hay en desarrollo un muy importante número de proyectos de obras hidráulicas de diversa naturaleza (presas, canales, desaladoras, tanques de tormentas, centrales hidroeléctricas, obras de saneamiento, etc.), donde España es, en muchas ocasiones, el marco de referencia. En este artículo, se presentan algunas de las principales investigaciones en curso en el campo de la modelación física y numérica de la ingeniería de presas, con el objetivo de mejorar el conocimiento de los fenómenos hidráulicos que intervienen en su gestión y desarrollar nuevas herramientas de diseño que permitan dar solución a problemas hidráulicos complejos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo desarrolla un servicio REST que transforma frases en lenguaje natural a grafos RDF. Los grafos generados son grafos dirigidos, donde los nodos se forman con los sustantivos o adjetivos de las frases, y los arcos se forman con los verbos. Se utiliza dentro del proyecto p-medicine para dar soporte a las siguientes funcionalidades: Búsquedas en lenguaje natural: actualmente la plataforma p-medicine proporciona un interfaz programático para realizar consultas en SPARQL. El servicio desarrollado permitiría generar esas consultas automáticamente a partir de frases en lenguaje natural. Anotaciones de bases de datos mediante lenguaje natural: la plataforma pmedicine incorpora una herramienta, desarrollada por el Grupo de Ingeniería Biomédica de la Universidad Politécnica de Madrid, para la anotación de bases de datos RDF. Estas anotaciones son necesarias para la posterior traducción de las bases de datos a un esquema central. El proceso de anotación requiere que el usuario construya de forma manual las vistas RDF que desea anotar, lo que requiere mostrar gráficamente el esquema RDF y que el usuario construya vistas RDF seleccionando las clases y relaciones necesarias. Este proceso es a menudo complejo y demasiado difícil para un usuario sin perfil técnico. El sistema se incorporará para permitir que la construcción de estas vistas se realice con lenguaje natural. ---ABSTRACT---The present work develops a REST service that transforms natural language sentences to RDF degrees. Generated graphs are directed graphs where nodes are formed with nouns or adjectives of phrases, and the arcs are formed with verbs. Used within the p-medicine project to support the following functionality: Natural language queries: currently the p-medicine platform provides a programmatic interface to query SPARQL. The developed service would automatically generate those queries from natural language sentences. Memos databases using natural language: the p-medicine platform incorporates a tool, developed by the Group of Biomedical Engineering at the Polytechnic University of Madrid, for the annotation of RDF data bases. Such annotations are necessary for the subsequent translation of databases to a central scheme. The annotation process requires the user to manually construct the RDF views that he wants annotate, requiring graphically display the RDF schema and the user to build RDF views by selecting classes and relationships. This process is often complex and too difficult for a user with no technical background. The system is incorporated to allow the construction of these views to be performed with natural language.