54 resultados para Simulador Orçamentário


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se ha desarrollado un método de calibración de interrogadores de redes de Bragg en fibra óptica que compara la respuesta del equipo de prueba con un simulador de red de Bragg compuesto por un filtro sintonizable unido a un espejo de fibra óptica. La longitud de onda simulada obtenida se mide con un interferómetro de referencia calibrado en el Instituto de Óptica del Consejo Superior de Investigaciones Científicas (IO?CSIC). Este método de calibración ha sido aplicado para calibrar varios tipos de interrogadores de redes de Bragg: estáticos y dinámicos. La incertidumbre en la calibración absoluta de los interrogadores es de ±88 pm, y es debida principalmente a la anchura espectral del filtro que simula la red de Bragg. Sin embrago, en calibraciones relativas la incertidumbre baja a ±3 pm, dominado por la incertidumbre en la calibración del interferómetro de referencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el año 2008 la Universidad Politécnica de Madrid y la empresa Gas Natural Fenosa firmaron un acuerdo por el que se creaba el Aula José Cabrera en el Departamento de Ingeniería Nuclear de la UPM. Dicho aula cuenta con el simulador gráfico interactivo de la central nuclear José Cabrera, que es un simulador de alcance total de una central nuclear PWR de un lazo. El objetivo de la ponencia es demostrar la gran aplicación didáctica que tiene dicho aula. El simulador es una herramienta de uso interactivo para trabajo individual o en grupo con los alumnos. Dentro de la asignatura de “Fiabilidad y Análisis del Riesgo” del Máster Ciencia y Tecnología Nuclear de la ETSII-UPM, se propuso la realización de un árbol de eventos para un accidente propuesto por los alumnos. El trabajo que se presenta en esta ponencia ha consistido en el análisis del accidente de rotura de tubos en el generador de vapor usando el simulador gráfico interactivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno de los aspectos fundamentales en un sistema de cirugía guiada por imagen (CGI) es la localización del instrumental quirúrgico con respecto a la anatomía del paciente. Los sistemas basados en sensores ofrecen buenos niveles de precisión, pero son sensibles a distintas fuentes de ruido en el quirófano y contribuyen a la sobrecarga tecnológica del mismo. Una alternativa novedosa es analizar la imagen del vídeo endoscópico para llevar a cabo la detección y localización espacial del instrumental. Se presenta en este trabajo la validación de dos métodos, basados en el diámetro aparente y en la sección transversal del instrumental, para la localización espacial del instrumental a partir de los bordes y la posición 2D de la punta en la imagen. La validación, llevada a cabo en un simulador físico, se realiza comparando los resultados con el sistema Kinescan/IBV. Los resultados muestran para cada método un error medio de 12,7 y 12,8 mm respectivamente. La incorporación de estos algoritmos dentro del paradigma de navegación propuesto en el proyecto THEMIS permitirá al cirujano conocer la posición del instrumental de forma no intrusiva y transparente, sin necesidad de equipamiento adicional en el quirófano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tanto los robots autónomos móviles como los robots móviles remotamente operados se utilizan con éxito actualmente en un gran número de ámbitos, algunos de los cuales son tan dispares como la limpieza en el hogar, movimiento de productos en almacenes o la exploración espacial. Sin embargo, es difícil garantizar la ausencia de defectos en los programas que controlan dichos dispositivos, al igual que ocurre en otros sectores informáticos. Existen diferentes alternativas para medir la calidad de un sistema en el desempeño de las funciones para las que fue diseñado, siendo una de ellas la fiabilidad. En el caso de la mayoría de los sistemas físicos se detecta una degradación en la fiabilidad a medida que el sistema envejece. Esto es debido generalmente a efectos de desgaste. En el caso de los sistemas software esto no suele ocurrir, ya que los defectos que existen en ellos generalmente no han sido adquiridos con el paso del tiempo, sino que han sido insertados en el proceso de desarrollo de los mismos. Si dentro del proceso de generación de un sistema software se focaliza la atención en la etapa de codificación, podría plantearse un estudio que tratara de determinar la fiabilidad de distintos algoritmos, válidos para desempeñar el mismo cometido, según los posibles defectos que pudieran introducir los programadores. Este estudio básico podría tener diferentes aplicaciones, como por ejemplo elegir el algoritmo menos sensible a los defectos, para el desarrollo de un sistema crítico o establecer procedimientos de verificación y validación, más exigentes, si existe la necesidad de utilizar un algoritmo que tenga una alta sensibilidad a los defectos. En el presente trabajo de investigación se ha estudiado la influencia que tienen determinados tipos de defectos software en la fiabilidad de tres controladores de velocidad multivariable (PID, Fuzzy y LQR) al actuar en un robot móvil específico. La hipótesis planteada es que los controladores estudiados ofrecen distinta fiabilidad al verse afectados por similares patrones de defectos, lo cual ha sido confirmado por los resultados obtenidos. Desde el punto de vista de la planificación experimental, en primer lugar se realizaron los ensayos necesarios para determinar si los controladores de una misma familia (PID, Fuzzy o LQR) ofrecían una fiabilidad similar, bajo las mismas condiciones experimentales. Una vez confirmado este extremo, se eligió de forma aleatoria un representante de clase de cada familia de controladores, para efectuar una batería de pruebas más exhaustiva, con el objeto de obtener datos que permitieran comparar de una forma más completa la fiabilidad de los controladores bajo estudio. Ante la imposibilidad de realizar un elevado número de pruebas con un robot real, así como para evitar daños en un dispositivo que generalmente tiene un coste significativo, ha sido necesario construir un simulador multicomputador del robot. Dicho simulador ha sido utilizado tanto en las actividades de obtención de controladores bien ajustados, como en la realización de los diferentes ensayos necesarios para el experimento de fiabilidad. ABSTRACT Autonomous mobile robots and remotely operated robots are used successfully in very diverse scenarios, such as home cleaning, movement of goods in warehouses or space exploration. However, it is difficult to ensure the absence of defects in programs controlling these devices, as it happens in most computer sectors. There exist different quality measures of a system when performing the functions for which it was designed, among them, reliability. For most physical systems, a degradation occurs as the system ages. This is generally due to the wear effect. In software systems, this does not usually happen, and defects often come from system development and not from use. Let us assume that we focus on the coding stage in the software development pro¬cess. We could consider a study to find out the reliability of different and equally valid algorithms, taking into account any flaws that programmers may introduce. This basic study may have several applications, such as choosing the algorithm less sensitive to pro¬gramming defects for the development of a critical system. We could also establish more demanding procedures for verification and validation if we need an algorithm with high sensitivity to programming defects. In this thesis, we studied the influence of certain types of software defects in the reliability of three multivariable speed controllers (PID, Fuzzy and LQR) designed to work in a specific mobile robot. The hypothesis is that similar defect patterns affect differently the reliability of controllers, and it has been confirmed by the results. From the viewpoint of experimental planning, we followed these steps. First, we conducted the necessary test to determine if controllers of the same family (PID, Fuzzy or LQR) offered a similar reliability under the same experimental conditions. Then, a class representative was chosen at ramdom within each controller family to perform a more comprehensive test set, with the purpose of getting data to compare more extensively the reliability of the controllers under study. The impossibility of performing a large number of tests with a real robot and the need to prevent the damage of a device with a significant cost, lead us to construct a multicomputer robot simulator. This simulator has been used to obtain well adjusted controllers and to carry out the required reliability experiments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los dispositivos robóticos se están convirtiendo en una alternativa muy extendida a las terapias de neurorrehabilitación funcional tradicionales al ofrecer una práctica más intensiva sin incrementar el tiempo empleado en la supervisión por parte de los terapeutas especialistas. Por ello, este trabajo de investigación propone un algoritmo de control anticipatorio que, bajo el paradigma 'assisted-as-needed', proporcione a una ortesis robótica las capacidades de actuación necesarias para comportarse tal y como lo haría un terapeuta que proporciona una sesión de terapia manual. Dicho algoritmo de control ha sido validado mediante un simulador robótico obteniéndose resultados que demuestran su eficacia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In current communication systems, there are many new challenges like various competitive standards, the scarcity of frequency resource, etc., especially the development of personal wireless communication systems result the new system update faster than ever before, the conventional hardware-based wireless communication system is difficult to adapt to this situation. The emergence of SDR enabled the third revolution of wireless communication which from hardware to software and build a flexible, reliable, upgradable, reusable, reconfigurable and low cost platform. The Universal Software Radio Peripheral (USRP) products are commonly used with the GNU Radio software suite to create complex SDR systems. GNU Radio is a toolkit where digital signal processing blocks are written in C++, and connected to each other with Python. This makes it easy to develop more sophisticated signal processing systems, because many blocks already written by others and you can quickly put them together to create a complete system. Although the main function of GNU Radio is not be a simulator, but if there is no RF hardware components,it supports to researching the signal processing algorithm based on pre-stored and generated data by signal generator. This thesis introduced SDR platform from hardware (USRP) and software(GNU Radio), as well as some basic modulation techniques in wireless communication system. Based on the examples provided by GNU Radio, carried out some related experiments, for example GSM scanning and FM radio station receiving on USRP. And make a certain degree of improvement based on the experience of some investigators to observe OFDM spectrum and simulate real-time video transmission. GNU Radio combine with USRP hardware proved to be a valuable lab platform for implementing complex radio system prototypes in a short time. RESUMEN. Software Defined Radio (SDR) es una tecnología emergente que está creando un impacto revolucionario en la tecnología de radio convencional. Un buen ejemplo de radio software son los sistemas de código abierto llamados GNU Radio que emplean un kit de herramientas de desarrollo de software libre. En este trabajo se ha empleado un kit de desarrollo comercial (Ettus Research) que consiste en un módulo de procesado de señal y un hardaware sencillo. El módulo emplea un software de desarrollo basado en Linux sobre el que se pueden implementar aplicaciones de radio software muy variadas. El hardware de desarrollo consta de un microprocesador de propósito general, un dispositivo programable (FPGA) y un interfaz de radiofrecuencia que cubre de 50 a 2200MHz. Este hardware se conecta al PC por medio de un interfaz USB de 8Mb/s de velocidad. Sobre la plataforma de Ettus se pueden ejecutar aplicaciones GNU radio que utilizan principalmente lenguaje de programación Python para implementarse. Sin embargo, su módulo de procesado de señal está construido en C + + y emplea un microprocesador con aritmética de coma flotante. Por lo tanto, los desarrolladores pueden rápida y fácilmente construir aplicaciones en tiempo real sistemas de comunicación inalámbrica de alta capacidad. Aunque su función principal no es ser un simulador, si no puesto que hay componentes de hardware RF, Radio GNU sirve de apoyo a la investigación del algoritmo de procesado de señales basado en pre-almacenados y generados por los datos del generador de señal. En este trabajo fin de máster se ha evaluado la plataforma de hardware de DEG (USRP) y el software (GNU Radio). Para ello se han empleado algunas técnicas de modulación básicas en el sistema de comunicación inalámbrica. A partir de los ejemplos proporcionados por GNU Radio, hemos realizado algunos experimentos relacionados, por ejemplo, escaneado del espectro, demodulación de señales de FM empleando siempre el hardware de USRP. Una vez evaluadas aplicaciones sencillas se ha pasado a realizar un cierto grado de mejora y optimización de aplicaciones complejas descritas en la literatura. Se han empleado aplicaciones como la que consiste en la generación de un espectro de OFDM y la simulación y transmisión de señales de vídeo en tiempo real. Con estos resultados se está ahora en disposición de abordar la elaboración de aplicaciones complejas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas de proyección multi-proyector han adquirido gran popularidad en los últimos años para su uso en un amplio rango de aplicaciones como sistemas de realidad virtual, simuladores y visualización de datos. Esto es debido a que normalmente estas aplicaciones necesitan representar sus datos a muy alta resolución y a lo largo de una gran superficie. Este tipo de sistemas de proyección son baratos en comparación con las resoluciones que pueden conseguir, se pueden configurar para proyectar sobre prácticamente cualquier tipo de superficie, sea cual sea su forma, y son fácilmente escalables. Sin embargo, para hacer que este tipo de sistemas generen una imagen sin discontinuidades geométricas o colorimétricas requieren de un ajuste preciso. En la presente tesis se analizan en detalle todos los problemas a los que hay que enfrentarse a la hora de diseñar y calibrar un sistema de proyección de este tipo y se propone una metodología con una serie de optimizaciones para hacer el ajuste de estos sistemas más sencillo y rápido. Los resultados de esta metodología se muestran aplicados a la salida gráfica de un simulador de entrenamiento. Multi-projector display systems have gained high popularity over the past years for its use in a wide range of applications such as virtual reality systems, simulators or data visualization where a high resolution image over a large projection surface is required. Such systems are cheap for the resolutions they can provide, can be configured to project images on almost any kind of screen shapes and are easily scalable, but in order to provide a seamless image with no photometric discontinuities they require a precise geometric and colour correction. In this thesis, we analyze all the problems that have to be faced in order to design and calibrate a multi-projector display. We propose a calibration methodology with some optimizations that make the adjustment of this kind of displays easier and faster. The results of the implementation of this methodology on a training simulator are presented and discussed

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Diabetes Mellitus se define como el trastorno del metabolismo de los carbohidratos, resultante de una producción insuficiente o nula de insulina en las células beta del páncreas, o la manifestación de una sensibilidad reducida a la insulina por parte del sistema metabólico. La diabetes tipo 1 se caracteriza por la nula producción de insulina por la destrucción de las células beta del páncreas. Si no hay insulina en el torrente sanguíneo, la glucosa no puede ser absorbida por las células, produciéndose un estado de hiperglucemia en el paciente, que a medio y largo plazo si no es tratado puede ocasionar severas enfermedades, conocidos como síndromes de la diabetes. La diabetes tipo 1 es una enfermedad incurable pero controlable. La terapia para esta enfermedad consiste en la aplicación exógena de insulina con el objetivo de mantener el nivel de glucosa en sangre dentro de los límites normales. Dentro de las múltiples formas de aplicación de la insulina, en este proyecto se usará una bomba de infusión, que unida a un sensor subcutáneo de glucosa permitirá crear un lazo de control autónomo que regule la cantidad optima de insulina aplicada en cada momento. Cuando el algoritmo de control se utiliza en un sistema digital, junto con el sensor subcutáneo y bomba de infusión subcutánea, se conoce como páncreas artificial endocrino (PAE) de uso ambulatorio, hoy día todavía en fase de investigación. Estos algoritmos de control metabólico deben de ser evaluados en simulación para asegurar la integridad física de los pacientes, por lo que es necesario diseñar un sistema de simulación mediante el cual asegure la fiabilidad del PAE. Este sistema de simulación conecta los algoritmos con modelos metabólicos matemáticos para obtener una visión previa de su funcionamiento. En este escenario se diseñó DIABSIM, una herramienta desarrollada en LabViewTM, que posteriormente se trasladó a MATLABTM, y basada en el modelo matemático compartimental propuesto por Hovorka, con la que poder simular y evaluar distintos tipos de terapias y reguladores en lazo cerrado. Para comprobar que estas terapias y reguladores funcionan, una vez simulados y evaluados, se tiene que pasar a la experimentación real a través de un protocolo de ensayo clínico real, como paso previo al PEA ambulatorio. Para poder gestionar este protocolo de ensayo clínico real para la verificación de los algoritmos de control, se creó una interfaz de usuario a través de una serie de funciones de simulación y evaluación de terapias con insulina realizadas con MATLABTM (GUI: Graphics User Interface), conocido como Entorno de Páncreas artificial con Interfaz Clínica (EPIC). EPIC ha sido ya utilizada en 10 ensayos clínicos de los que se han ido proponiendo posibles mejoras, ampliaciones y/o cambios. Este proyecto propone una versión mejorada de la interfaz de usuario EPIC propuesta en un proyecto anterior para gestionar un protocolo de ensayo clínico real para la verificación de algoritmos de control en un ambiente hospitalario muy controlado, además de estudiar la viabilidad de conectar el GUI con SimulinkTM (entorno gráfico de Matlab de simulación de sistemas) para su conexión con un nuevo simulador de pacientes aprobado por la JDRF (Juvenil Diabetes Research Foundation). SUMMARY The diabetes mellitus is a metabolic disorder of carbohydrates, as result of an insufficient or null production of insulin in the beta cellules of pancreas, or the manifestation of a reduced sensibility to the insulin from the metabolic system. The type 1 diabetes is characterized for a null production of insulin due to destruction of the beta cellules. Without insulin in the bloodstream, glucose can’t be absorbed by the cellules, producing a hyperglycemia state in the patient and if pass a medium or long time and is not treated can cause severe disease like diabetes syndrome. The type 1 diabetes is an incurable disease but controllable one. The therapy for this disease consists on the exogenous insulin administration with the objective to maintain the glucose level in blood within the normal limits. For the insulin administration, in this project is used an infusion pump, that permit with a subcutaneous glucose sensor, create an autonomous control loop that regulate the optimal insulin amount apply in each moment. When the control algorithm is used in a digital system, with the subcutaneous senor and infusion subcutaneous pump, is named as “Artificial Endocrine Pancreas” for ambulatory use, currently under investigate. These metabolic control algorithms should be evaluates in simulation for assure patients’ physical integrity, for this reason is necessary to design a simulation system that assure the reliability of PAE. This simulation system connects algorithms with metabolic mathematics models for get a previous vision of its performance. In this scenario was created DIABSIMTM, a tool developed in LabView, that later was converted to MATLABTM, and based in the compartmental mathematic model proposed by Hovorka that could simulate and evaluate several different types of therapy and regulators in closed loop. To check the performance of these therapies and regulators, when have been simulated and evaluated, will be necessary to pass to real experimentation through a protocol of real clinical test like previous step to ambulatory PEA. To manage this protocol was created an user interface through the simulation and evaluation functions od therapies with insulin realized with MATLABTM (GUI: Graphics User Interface), known as “Entorno de Páncreas artificial con Interfaz Clínica” (EPIC).EPIC have been used in 10 clinical tests which have been proposed improvements, adds and changes. This project proposes a best version of user interface EPIC proposed in another project for manage a real test clinical protocol for checking control algorithms in a controlled hospital environment and besides studying viability to connect the GUI with SimulinkTM (Matlab graphical environment in systems simulation) for its connection with a new patients simulator approved for the JDRF (Juvenil Diabetes Research Foundation).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis doctoral se aborda el desarrollo de técnicas interferométricas para radares de alta resolución en milimétricas. Específicamente, se centra en el desarrollo de técnicas para radares terrestres y en concreto aquellas relacionadas con el seguimiento, clasificación y generación de imágenes de blancos móviles. Aparte del desarrollo teórico y simulación de las diferentes técnicas, uno de los grandes retos de esta tesis es la verificación experimental de las mismas. Para este propósito, se empleará un prototipo de sensor radar interferométrico de muy alta resolución y de ondas milimétricas. El primer capítulo de la tesis realiza una pequeña introducción a las técnicas interferométricas y presenta los objetivos, motivación y organización del presente trabajo. El segundo capítulo hace una pequeña introducción a los radares interferométricos de alta resolución en milimétricas y presenta el sensor radar experimental con el que se llevarán a cabo la validación de las distintas técnicas presentadas. El tercer capítulo recoge las distintas técnicas interferométricas desarrolladas para el seguimiento y cálculo de la altura de blancos móviles en radares de alta resolución. Entre ellas se encuentran: el seguimiento de blancos móviles en sucesión de imágenes ISAR, el cálculo de altura de blancos en imágenes radar bidimensionales distancia-tiempo y su equivalente en imágenes distancia-Doppler. El cuarto capítulo presenta una aplicación de las técnicas interferométricas para la vigilancia de tráfico en carreteras. Se describirán dos configuraciones radar que permiten calcular la velocidad de todos los blancos iluminados por el radar identificando de manera unívoca a los blancos en función del carril por el que circulen. El quinto capítulo presenta técnicas interferométricas aplicadas a la vigilancia en entornos marítimos basadas en la generación de imágenes interferométricas. Para demostrar la viabilidad del uso de estas imágenes se ha desarrollado un simulador de blancos móviles extensos realistas. Abstract This Ph. D thesis deals with the development of radar interferometry techniques for high-resolution millimeter wave sensors. It focuses on the development of techniques for ground-based radars and specifically those related to monitoring, classification and imaging of moving targets. Apart from the theoretical development and simulation, another major technical challenge of this thesis is the experimental verification of the different techniques. For that purpuse, a very high resolution interferometric millimeter wave radar sensor is used. The first chapter of the thesis makes a brief introduction to the interferometric techniques and shows the goals, motivation and organization of this work. The second chapter provides a brief introduction to high resolution interferometric radars in millimeter waves and presents the experimental radar sensor which will be used for the validation of the various techniques presented. The third chapter presents the different interferometric techniques developed for monitoring and obtaining the height of moving targets in high resolution radars. Among them are: tracking of moving targets in a succession of ISAR images, targets height calculation using bidimensional range-time radar images and the equivalente technique using range-Doppler images. The fourth chapter presents the application of interferometric techniques for road traffic monitoring. Two radar configurations are described. Both of them are able to obtain the speed for simultaneuslly illuminated targets, and univocally identify each target based on the detected road lane. The fifth chapter presents the application of interferometric techniques to maritime surveillance based on interferometric imaging. To demonstrate the feasibility of the presented techniques a realistic simulator of extended moving targets has been developed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este proyecto es presentar un estudio acerca de la evolución a lo largo del tiempo de las diferentes tecnologías de acceso a la red que hacen uso de la planta instalada de par de cobre, llamadas tecnologías xDSL, y prestando especial interés a aquellas más ampliamente implantadas y aquellas que ofrecen velocidades de acceso mayores. El estudio hará un breve repaso a esta evolución desde la tecnología HDSL, la primera en utilizar el bucle de abonado para la transmisión de datos digitales, hasta las más utilizadas actualmente, como el ADSL2+ o el VDSL2. Además, se profundizará en el desarrollo de las tecnologías de acceso a la red de alta velocidad, principalmente asimétricas, haciendo un amplio estudio del funcionamiento de tecnologías desde el ADSL hasta el VDSL2. Se expondrán las diferencias entre todas ellas, atendiendo a las ventajas que cada una ofrece frente a las desarrolladas anteriormente, para lo que se tendrá en cuenta, principalmente, el uso cada vez más eficiente que se hace del espectro de frecuencias disponible, así como la velocidad máxima teórica que se podría alcanzar con cada una de ellas. Existen además, varias técnicas que permiten mejorar el rendimiento de la tecnología VDSL2, se repasaran brevemente, y se dedicará parte del estudio a aquella que permite agrupar varias líneas en una sola conexión, tecnología llamada bonding. Para complementar el estudio se realizarán una serie de simulaciones que permitan reflejar las mejoras que se van produciendo en las distintas tecnologías que se han ido desarrollando a lo largo del tiempo, observando para ello los diferentes puntos que se han tenido en cuenta en la parte teórica y haciendo hincapié en aquellas ventajas que más valorará el usuario final. Con un simulador de bucles de diferentes distancias, y un simulador e inyector de ruido, se simularán distintos escenarios en los que realizaran medidas de la velocidad de sincronismo obtenida utilizando tres tecnologías distintas, ADSL2+, VDSL2 y VDSL2 Bonding. Con los resultados obtenidos, se realizará una valoración de las condiciones en las que se obtienen mejores rendimientos con cada una de ellas. ABSTRACT. The goal of this Project is studying the historical evolution of different access technologies based on twisted pair, also known as xDSL access. I will focus on those technologies widely deployed and those that provide greater access speeds. I will begin with a historical approach, from HDSL, the first technology to use the copper pair to transmit digital data, to the most used nowadays, ADSL2+ and VDSL2. Later on, I will make a deep analysis of broadband access technologies, mainly asymmetric ones, from ADSL to VDSL2. I will explain the differences between them, paying special attention to their advantages in the face of the previous ones. To evaluate these leverages I will mainly consider the frequency spectrum efficiency and the maximum theoretical speed, both upstream and downstream. I will make a brief introduction to various techniques that improve VDSL2 performance. But I will take some more time to explain bonding, a technique that allows link some lines in a unique connection. To finish the project I will make a series of simulations that reflect the improvements achieved with each new technology, keeping in mind all those points reflected in the theoretical part of the project, and focusing on those advantages most valuable to the end user. I will analyze the obtained data to evaluate the best conditions for each technology. Those simulations will be made using a loop simulator and a noise injector to evaluate different scenarios, making rate measurements of three technologies, i.e. ADSL2+, VDSL2 and VDLS2 Bonding.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la interacción con el entorno que nos rodea durante nuestra vida diaria (utilizar un cepillo de dientes, abrir puertas, utilizar el teléfono móvil, etc.) y en situaciones profesionales (intervenciones médicas, procesos de producción, etc.), típicamente realizamos manipulaciones avanzadas que incluyen la utilización de los dedos de ambas manos. De esta forma el desarrollo de métodos de interacción háptica multi-dedo dan lugar a interfaces hombre-máquina más naturales y realistas. No obstante, la mayoría de interfaces hápticas disponibles en el mercado están basadas en interacciones con un solo punto de contacto; esto puede ser suficiente para la exploración o palpación del entorno pero no permite la realización de tareas más avanzadas como agarres. En esta tesis, se investiga el diseño mecánico, control y aplicaciones de dispositivos hápticos modulares con capacidad de reflexión de fuerzas en los dedos índice, corazón y pulgar del usuario. El diseño mecánico de la interfaz diseñada, ha sido optimizado con funciones multi-objetivo para conseguir una baja inercia, un amplio espacio de trabajo, alta manipulabilidad y reflexión de fuerzas superiores a 3 N en el espacio de trabajo. El ancho de banda y la rigidez del dispositivo se han evaluado mediante simulación y experimentación real. Una de las áreas más importantes en el diseño de estos dispositivos es el efector final, ya que es la parte que está en contacto con el usuario. Durante este trabajo se ha diseñado un dedal de bajo peso, adaptable a diferentes usuarios que, mediante la incorporación de sensores de contacto, permite estimar fuerzas normales y tangenciales durante la interacción con entornos reales y virtuales. Para el diseño de la arquitectura de control, se estudiaron los principales requisitos para estos dispositivos. Entre estos, cabe destacar la adquisición, procesado e intercambio a través de internet de numerosas señales de control e instrumentación; la computación de equaciones matemáticas incluyendo la cinemática directa e inversa, jacobiana, algoritmos de detección de agarres, etc. Todos estos componentes deben calcularse en tiempo real garantizando una frecuencia mínima de 1 KHz. Además, se describen sistemas para manipulación de precisión virtual y remota; así como el diseño de un método denominado "desacoplo cinemático iterativo" para computar la cinemática inversa de robots y la comparación con otros métodos actuales. Para entender la importancia de la interacción multimodal, se ha llevado a cabo un estudio para comprobar qué estímulos sensoriales se correlacionan con tiempos de respuesta más rápidos y de mayor precisión. Estos experimentos se desarrollaron en colaboración con neurocientíficos del instituto Technion Israel Institute of Technology. Comparando los tiempos de respuesta en la interacción unimodal (auditiva, visual y háptica) con combinaciones bimodales y trimodales de los mismos, se demuestra que el movimiento sincronizado de los dedos para generar respuestas de agarre se basa principalmente en la percepción háptica. La ventaja en el tiempo de procesamiento de los estímulos hápticos, sugiere que los entornos virtuales que incluyen esta componente sensorial generan mejores contingencias motoras y mejoran la credibilidad de los eventos. Se concluye que, los sistemas que incluyen percepción háptica dotan a los usuarios de más tiempo en las etapas cognitivas para rellenar información de forma creativa y formar una experiencia más rica. Una aplicación interesante de los dispositivos hápticos es el diseño de nuevos simuladores que permitan entrenar habilidades manuales en el sector médico. En colaboración con fisioterapeutas de Griffith University en Australia, se desarrolló un simulador que permite realizar ejercicios de rehabilitación de la mano. Las propiedades de rigidez no lineales de la articulación metacarpofalange del dedo índice se estimaron mediante la utilización del efector final diseñado. Estos parámetros, se han implementado en un escenario que simula el comportamiento de la mano humana y que permite la interacción háptica a través de esta interfaz. Las aplicaciones potenciales de este simulador están relacionadas con entrenamiento y educación de estudiantes de fisioterapia. En esta tesis, se han desarrollado nuevos métodos que permiten el control simultáneo de robots y manos robóticas en la interacción con entornos reales. El espacio de trabajo alcanzable por el dispositivo háptico, se extiende mediante el cambio de modo de control automático entre posición y velocidad. Además, estos métodos permiten reconocer el gesto del usuario durante las primeras etapas de aproximación al objeto para su agarre. Mediante experimentos de manipulación avanzada de objetos con un manipulador y diferentes manos robóticas, se muestra que el tiempo en realizar una tarea se reduce y que el sistema permite la realización de la tarea con precisión. Este trabajo, es el resultado de una colaboración con investigadores de Harvard BioRobotics Laboratory. ABSTRACT When we interact with the environment in our daily life (using a toothbrush, opening doors, using cell-phones, etc.), or in professional situations (medical interventions, manufacturing processes, etc.) we typically perform dexterous manipulations that involve multiple fingers and palm for both hands. Therefore, multi-Finger haptic methods can provide a realistic and natural human-machine interface to enhance immersion when interacting with simulated or remote environments. Most commercial devices allow haptic interaction with only one contact point, which may be sufficient for some exploration or palpation tasks but are not enough to perform advanced object manipulations such as grasping. In this thesis, I investigate the mechanical design, control and applications of a modular haptic device that can provide force feedback to the index, thumb and middle fingers of the user. The designed mechanical device is optimized with a multi-objective design function to achieve a low inertia, a large workspace, manipulability, and force-feedback of up to 3 N within the workspace; the bandwidth and rigidity for the device is assessed through simulation and real experimentation. One of the most important areas when designing haptic devices is the end-effector, since it is in contact with the user. In this thesis the design and evaluation of a thimble-like, lightweight, user-adaptable, and cost-effective device that incorporates four contact force sensors is described. This design allows estimation of the forces applied by a user during manipulation of virtual and real objects. The design of a real-time, modular control architecture for multi-finger haptic interaction is described. Requirements for control of multi-finger haptic devices are explored. Moreover, a large number of signals have to be acquired, processed, sent over the network and mathematical computations such as device direct and inverse kinematics, jacobian, grasp detection algorithms, etc. have to be calculated in Real Time to assure the required high fidelity for the haptic interaction. The Hardware control architecture has different modules and consists of an FPGA for the low-level controller and a RT controller for managing all the complex calculations (jacobian, kinematics, etc.); this provides a compact and scalable solution for the required high computation capabilities assuring a correct frequency rate for the control loop of 1 kHz. A set-up for dexterous virtual and real manipulation is described. Moreover, a new algorithm named the iterative kinematic decoupling method was implemented to solve the inverse kinematics of a robotic manipulator. In order to understand the importance of multi-modal interaction including haptics, a subject study was carried out to look for sensory stimuli that correlate with fast response time and enhanced accuracy. This experiment was carried out in collaboration with neuro-scientists from Technion Israel Institute of Technology. By comparing the grasping response times in unimodal (auditory, visual, and haptic) events with the response times in events with bimodal and trimodal combinations. It is concluded that in grasping tasks the synchronized motion of the fingers to generate the grasping response relies on haptic cues. This processing-speed advantage of haptic cues suggests that multimodalhaptic virtual environments are superior in generating motor contingencies, enhancing the plausibility of events. Applications that include haptics provide users with more time at the cognitive stages to fill in missing information creatively and form a richer experience. A major application of haptic devices is the design of new simulators to train manual skills for the medical sector. In collaboration with physical therapists from Griffith University in Australia, we developed a simulator to allow hand rehabilitation manipulations. First, the non-linear stiffness properties of the metacarpophalangeal joint of the index finger were estimated by using the designed end-effector; these parameters are implemented in a scenario that simulates the behavior of the human hand and that allows haptic interaction through the designed haptic device. The potential application of this work is related to educational and medical training purposes. In this thesis, new methods to simultaneously control the position and orientation of a robotic manipulator and the grasp of a robotic hand when interacting with large real environments are studied. The reachable workspace is extended by automatically switching between rate and position control modes. Moreover, the human hand gesture is recognized by reading the relative movements of the index, thumb and middle fingers of the user during the early stages of the approximation-to-the-object phase and then mapped to the robotic hand actuators. These methods are validated to perform dexterous manipulation of objects with a robotic manipulator, and different robotic hands. This work is the result of a research collaboration with researchers from the Harvard BioRobotics Laboratory. The developed experiments show that the overall task time is reduced and that the developed methods allow for full dexterity and correct completion of dexterous manipulations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wireless sensor networks (WSNs) have shown their potentials in various applications, which bring a lot of benefits to users from both research and industrial areas. For many setups, it is envisioned thatWSNs will consist of tens to hundreds of nodes that operate on small batteries. However due to the diversity of the deployed environments and resource constraints on radio communication, sensing ability and energy supply, it is a very challenging issue to plan optimized WSN topology and predict its performance before real deployment. During the network planning phase, the connectivity, coverage, cost, network longevity and service quality should all be considered. Therefore it requires designers coping with comprehensive and interdisciplinary knowledge, including networking, radio engineering, embedded system and so on, in order to efficiently construct a reliable WSN for any specific types of environment. Nowadays there is still a lack of the analysis and experiences to guide WSN designers to efficiently construct WSN topology successfully without many trials. Therefore, simulation is a feasible approach to the quantitative analysis of the performance of wireless sensor networks. However the existing planning algorithms and tools, to some extent, have serious limitations to practically design reliable WSN topology: Only a few of them tackle the 3D deployment issue, and an overwhelming number of works are proposed to place devices in 2D scheme. Without considering the full dimension, the impacts of environment to the performance of WSN are not completely studied, thus the values of evaluated metrics such as connectivity and sensing coverage are not sufficiently accurate to make proper decision. Even fewer planning methods model the sensing coverage and radio propagation by considering the realistic scenario where obstacles exist. Radio signals propagate with multi-path phenomenon in the real world, in which direct paths, reflected paths and diffracted paths contribute to the received signal strength. Besides, obstacles between the path of sensor and objects might block the sensing signals, thus create coverage hole in the application. None of the existing planning algorithms model the network longevity and packet delivery capability properly and practically. They often employ unilateral and unrealistic formulations. The optimization targets are often one-sided in the current works. Without comprehensive evaluation on the important metrics, the performance of planned WSNs can not be reliable and entirely optimized. Modeling of environment is usually time consuming and the cost is very high, while none of the current works figure out any method to model the 3D deployment environment efficiently and accurately. Therefore many researchers are trapped by this issue, and their algorithms can only be evaluated in the same scenario, without the possibility to test the robustness and feasibility for implementations in different environments. In this thesis, we propose a novel planning methodology and an intelligent WSN planning tool to assist WSN designers efficiently planning reliable WSNs. First of all, a new method is proposed to efficiently and automatically model the 3D indoor and outdoor environments. To the best of our knowledge, this is the first time that the advantages of image understanding algorithm are applied to automatically reconstruct 3D outdoor and indoor scenarios for signal propagation and network planning purpose. The experimental results indicate that the proposed methodology is able to accurately recognize different objects from the satellite images of the outdoor target regions and from the scanned floor plan of indoor area. Its mechanism offers users a flexibility to reconstruct different types of environment without any human interaction. Thereby it significantly reduces human efforts, cost and time spent on reconstructing a 3D geographic database and allows WSN designers concentrating on the planning issues. Secondly, an efficient ray-tracing engine is developed to accurately and practically model the radio propagation and sensing signal on the constructed 3D map. The engine contributes on efficiency and accuracy to the estimated results. By using image processing concepts, including the kd-tree space division algorithm and modified polar sweep algorithm, the rays are traced efficiently without detecting all the primitives in the scene. The radio propagation model iv is proposed, which emphasizes not only the materials of obstacles but also their locations along the signal path. The sensing signal of sensor nodes, which is sensitive to the obstacles, is benefit from the ray-tracing algorithm via obstacle detection. The performance of this modelling method is robust and accurate compared with conventional methods, and experimental results imply that this methodology is suitable for both outdoor urban scenes and indoor environments. Moreover, it can be applied to either GSM communication or ZigBee protocol by varying frequency parameter of the radio propagation model. Thirdly, WSN planning method is proposed to tackle the above mentioned challenges and efficiently deploy reliable WSNs. More metrics (connectivity, coverage, cost, lifetime, packet latency and packet drop rate) are modeled more practically compared with other works. Especially 3D ray tracing method is used to model the radio link and sensing signal which are sensitive to the obstruction of obstacles; network routing is constructed by using AODV protocol; the network longevity, packet delay and packet drop rate are obtained via simulating practical events in WSNet simulator, which to the best of our knowledge, is the first time that network simulator is involved in a planning algorithm. Moreover, a multi-objective optimization algorithm is developed to cater for the characteristics of WSNs. The capability of providing multiple optimized solutions simultaneously allows users making their own decisions accordingly, and the results are more comprehensively optimized compared with other state-of-the-art algorithms. iMOST is developed by integrating the introduced algorithms, to assist WSN designers efficiently planning reliable WSNs for different configurations. The abbreviated name iMOST stands for an Intelligent Multi-objective Optimization Sensor network planning Tool. iMOST contributes on: (1) Convenient operation with a user-friendly vision system; (2) Efficient and automatic 3D database reconstruction and fast 3D objects design for both indoor and outdoor environments; (3) It provides multiple multi-objective optimized 3D deployment solutions and allows users to configure the network properties, hence it can adapt to various WSN applications; (4) Deployment solutions in the 3D space and the corresponding evaluated performance are visually presented to users; and (5) The Node Placement Module of iMOST is available online as well as the source code of the other two rebuilt heuristics. Therefore WSN designers will be benefit from v this tool on efficiently constructing environment database, practically and efficiently planning reliable WSNs for both outdoor and indoor applications. With the open source codes, they are also able to compare their developed algorithms with ours to contribute to this academic field. Finally, solid real results are obtained for both indoor and outdoor WSN planning. Deployments have been realized for both indoor and outdoor environments based on the provided planning solutions. The measured results coincide well with the estimated results. The proposed planning algorithm is adaptable according to the WSN designer’s desirability and configuration, and it offers flexibility to plan small and large scale, indoor and outdoor 3D deployments. The thesis is organized in 7 chapters. In Chapter 1, WSN applications and motivations of this work are introduced, the state-of-the-art planning algorithms and tools are reviewed, challenges are stated out and the proposed methodology is briefly introduced. In Chapter 2, the proposed 3D environment reconstruction methodology is introduced and its performance is evaluated for both outdoor and indoor environment. The developed ray-tracing engine and proposed radio propagation modelling method are described in details in Chapter 3, their performances are evaluated in terms of computation efficiency and accuracy. Chapter 4 presents the modelling of important metrics of WSNs and the proposed multi-objective optimization planning algorithm, the performance is compared with the other state-of-the-art planning algorithms. The intelligent WSN planning tool iMOST is described in Chapter 5. RealWSN deployments are prosecuted based on the planned solutions for both indoor and outdoor scenarios, important data are measured and results are analysed in Chapter 6. Chapter 7 concludes the thesis and discusses about future works. vi Resumen en Castellano Las redes de sensores inalámbricas (en inglés Wireless Sensor Networks, WSNs) han demostrado su potencial en diversas aplicaciones que aportan una gran cantidad de beneficios para el campo de la investigación y de la industria. Para muchas configuraciones se prevé que las WSNs consistirán en decenas o cientos de nodos que funcionarán con baterías pequeñas. Sin embargo, debido a la diversidad de los ambientes para desplegar las redes y a las limitaciones de recursos en materia de comunicación de radio, capacidad de detección y suministro de energía, la planificación de la topología de la red y la predicción de su rendimiento es un tema muy difícil de tratar antes de la implementación real. Durante la fase de planificación del despliegue de la red se deben considerar aspectos como la conectividad, la cobertura, el coste, la longevidad de la red y la calidad del servicio. Por lo tanto, requiere de diseñadores con un amplio e interdisciplinario nivel de conocimiento que incluye la creación de redes, la ingeniería de radio y los sistemas embebidos entre otros, con el fin de construir de manera eficiente una WSN confiable para cualquier tipo de entorno. Hoy en día todavía hay una falta de análisis y experiencias que orienten a los diseñadores de WSN para construir las topologías WSN de manera eficiente sin realizar muchas pruebas. Por lo tanto, la simulación es un enfoque viable para el análisis cuantitativo del rendimiento de las redes de sensores inalámbricos. Sin embargo, los algoritmos y herramientas de planificación existentes tienen, en cierta medida, serias limitaciones para diseñar en la práctica una topología fiable de WSN: Sólo unos pocos abordan la cuestión del despliegue 3D mientras que existe una gran cantidad de trabajos que colocan los dispositivos en 2D. Si no se analiza la dimensión completa (3D), los efectos del entorno en el desempeño de WSN no se estudian por completo, por lo que los valores de los parámetros evaluados, como la conectividad y la cobertura de detección, no son lo suficientemente precisos para tomar la decisión correcta. Aún en menor medida los métodos de planificación modelan la cobertura de los sensores y la propagación de la señal de radio teniendo en cuenta un escenario realista donde existan obstáculos. Las señales de radio en el mundo real siguen una propagación multicamino, en la que los caminos directos, los caminos reflejados y los caminos difractados contribuyen a la intensidad de la señal recibida. Además, los obstáculos entre el recorrido del sensor y los objetos pueden bloquear las señales de detección y por lo tanto crear áreas sin cobertura en la aplicación. Ninguno de los algoritmos de planificación existentes modelan el tiempo de vida de la red y la capacidad de entrega de paquetes correctamente y prácticamente. A menudo se emplean formulaciones unilaterales y poco realistas. Los objetivos de optimización son a menudo tratados unilateralmente en los trabajos actuales. Sin una evaluación exhaustiva de los parámetros importantes, el rendimiento previsto de las redes inalámbricas de sensores no puede ser fiable y totalmente optimizado. Por lo general, el modelado del entorno conlleva mucho tiempo y tiene un coste muy alto, pero ninguno de los trabajos actuales propone algún método para modelar el entorno de despliegue 3D con eficiencia y precisión. Por lo tanto, muchos investigadores están limitados por este problema y sus algoritmos sólo se pueden evaluar en el mismo escenario, sin la posibilidad de probar la solidez y viabilidad para las implementaciones en diferentes entornos. En esta tesis, se propone una nueva metodología de planificación así como una herramienta inteligente de planificación de redes de sensores inalámbricas para ayudar a los diseñadores a planificar WSNs fiables de una manera eficiente. En primer lugar, se propone un nuevo método para modelar demanera eficiente y automática los ambientes interiores y exteriores en 3D. Según nuestros conocimientos hasta la fecha, esta es la primera vez que las ventajas del algoritmo de _image understanding_se aplican para reconstruir automáticamente los escenarios exteriores e interiores en 3D para analizar la propagación de la señal y viii la planificación de la red. Los resultados experimentales indican que la metodología propuesta es capaz de reconocer con precisión los diferentes objetos presentes en las imágenes satelitales de las regiones objetivo en el exterior y de la planta escaneada en el interior. Su mecanismo ofrece a los usuarios la flexibilidad para reconstruir los diferentes tipos de entornos sin ninguna interacción humana. De este modo se reduce considerablemente el esfuerzo humano, el coste y el tiempo invertido en la reconstrucción de una base de datos geográfica con información 3D, permitiendo así que los diseñadores se concentren en los temas de planificación. En segundo lugar, se ha desarrollado un motor de trazado de rayos (en inglés ray tracing) eficiente para modelar con precisión la propagación de la señal de radio y la señal de los sensores en el mapa 3D construido. El motor contribuye a la eficiencia y la precisión de los resultados estimados. Mediante el uso de los conceptos de procesamiento de imágenes, incluyendo el algoritmo del árbol kd para la división del espacio y el algoritmo _polar sweep_modificado, los rayos se trazan de manera eficiente sin la detección de todas las primitivas en la escena. El modelo de propagación de radio que se propone no sólo considera los materiales de los obstáculos, sino también su ubicación a lo largo de la ruta de señal. La señal de los sensores de los nodos, que es sensible a los obstáculos, se ve beneficiada por la detección de objetos llevada a cabo por el algoritmo de trazado de rayos. El rendimiento de este método de modelado es robusto y preciso en comparación con los métodos convencionales, y los resultados experimentales indican que esta metodología es adecuada tanto para escenas urbanas al aire libre como para ambientes interiores. Por otra parte, se puede aplicar a cualquier comunicación GSM o protocolo ZigBee mediante la variación de la frecuencia del modelo de propagación de radio. En tercer lugar, se propone un método de planificación de WSNs para hacer frente a los desafíos mencionados anteriormente y desplegar redes de sensores fiables de manera eficiente. Se modelan más parámetros (conectividad, cobertura, coste, tiempo de vida, la latencia de paquetes y tasa de caída de paquetes) en comparación con otros trabajos. Especialmente el método de trazado de rayos 3D se utiliza para modelar el enlace de radio y señal de los sensores que son sensibles a la obstrucción de obstáculos; el enrutamiento de la red se construye utilizando el protocolo AODV; la longevidad de la red, retardo de paquetes ix y tasa de abandono de paquetes se obtienen a través de la simulación de eventos prácticos en el simulador WSNet, y según nuestros conocimientos hasta la fecha, es la primera vez que simulador de red está implicado en un algoritmo de planificación. Por otra parte, se ha desarrollado un algoritmo de optimización multi-objetivo para satisfacer las características de las redes inalámbricas de sensores. La capacidad de proporcionar múltiples soluciones optimizadas de forma simultánea permite a los usuarios tomar sus propias decisiones en consecuencia, obteniendo mejores resultados en comparación con otros algoritmos del estado del arte. iMOST se desarrolla mediante la integración de los algoritmos presentados, para ayudar de forma eficiente a los diseñadores en la planificación de WSNs fiables para diferentes configuraciones. El nombre abreviado iMOST (Intelligent Multi-objective Optimization Sensor network planning Tool) representa una herramienta inteligente de planificación de redes de sensores con optimización multi-objetivo. iMOST contribuye en: (1) Operación conveniente con una interfaz de fácil uso, (2) Reconstrucción eficiente y automática de una base de datos con información 3D y diseño rápido de objetos 3D para ambientes interiores y exteriores, (3) Proporciona varias soluciones de despliegue optimizadas para los multi-objetivo en 3D y permite a los usuarios configurar las propiedades de red, por lo que puede adaptarse a diversas aplicaciones de WSN, (4) las soluciones de implementación en el espacio 3D y el correspondiente rendimiento evaluado se presentan visualmente a los usuarios, y (5) El _Node Placement Module_de iMOST está disponible en línea, así como el código fuente de las otras dos heurísticas de planificación. Por lo tanto los diseñadores WSN se beneficiarán de esta herramienta para la construcción eficiente de la base de datos con información del entorno, la planificación práctica y eficiente de WSNs fiables tanto para aplicaciones interiores y exteriores. Con los códigos fuente abiertos, son capaces de comparar sus algoritmos desarrollados con los nuestros para contribuir a este campo académico. Por último, se obtienen resultados reales sólidos tanto para la planificación de WSN en interiores y exteriores. Los despliegues se han realizado tanto para ambientes de interior y como para ambientes de exterior utilizando las soluciones de planificación propuestas. Los resultados medidos coinciden en gran medida con los resultados estimados. El algoritmo de planificación x propuesto se adapta convenientemente al deiseño de redes de sensores inalámbricas, y ofrece flexibilidad para planificar los despliegues 3D a pequeña y gran escala tanto en interiores como en exteriores. La tesis se estructura en 7 capítulos. En el Capítulo 1, se presentan las aplicaciones de WSN y motivaciones de este trabajo, se revisan los algoritmos y herramientas de planificación del estado del arte, se presentan los retos y se describe brevemente la metodología propuesta. En el Capítulo 2, se presenta la metodología de reconstrucción de entornos 3D propuesta y su rendimiento es evaluado tanto para espacios exteriores como para espacios interiores. El motor de trazado de rayos desarrollado y el método de modelado de propagación de radio propuesto se describen en detalle en el Capítulo 3, evaluándose en términos de eficiencia computacional y precisión. En el Capítulo 4 se presenta el modelado de los parámetros importantes de las WSNs y el algoritmo de planificación de optimización multi-objetivo propuesto, el rendimiento se compara con los otros algoritmos de planificación descritos en el estado del arte. La herramienta inteligente de planificación de redes de sensores inalámbricas, iMOST, se describe en el Capítulo 5. En el Capítulo 6 se llevan a cabo despliegues reales de acuerdo a las soluciones previstas para los escenarios interiores y exteriores, se miden los datos importantes y se analizan los resultados. En el Capítulo 7 se concluye la tesis y se discute acerca de los trabajos futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se estudia la utilidad de un sistema de evaluación de destrezas quirúrgicas basado en el análisis de los movimientos del instrumental laparoscópico. Método: El sistema consta de un simulador físico laparoscópico y un sistema de seguimiento y evaluación de habilidades técnicas quirúrgicas. En el estudio han participado 6 cirujanos con experiencia intermedia (entre 1 y 50 intervenciones laparoscópicas) y 5 cirujanos expertos (más de 50 intervenciones laparoscópicas), todos ellos con la mano derecha como dominante. Cada sujeto realizó 3 repeticiones de una tarea de corte con la mano derecha en tejido sintético, una disección de la serosa gástrica y una sutura en la disección realizada. Para cada ejercicio se analizaron los parámetros de tiempo, distancia recorrida, velocidad, aceleración y suavidad de movimientos para los instrumentos de ambas manos. Resultados: En la tarea de corte, los cirujanos expertos muestran menor aceleración (p = 0,014) y mayor suavidad en los movimientos (p = 0,023) en el uso de la tijera. Respecto a la actividad de disección, los cirujanos expertos requieren menos tiempo (p = 0,006) y recorren menos distancia con ambos instrumentos (p = 0,006 para disector y p = 0,01 para tijera). En la tarea de sutura, los cirujanos expertos presentan menor tiempo de ejecución que los cirujanos de nivel intermedio (p = 0,037) y recorren menos distancia con el disector (p = 0,041). Conclusiones: El sistema de evaluación se mostró útil en las tareas de corte, disección y sutura, y constituye un progreso en el desarrollo de sistemas avanzados de entrenamiento y evaluación de destrezas quirúrgicas laparoscópicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La escasez del agua en las regiones áridas y semiáridas se debe a la escasez de precipitaciones y la distribución desigual en toda la temporada, lo que hace de la agricultura de secano una empresa precaria. Un enfoque para mejorar y estabilizar el agua disponible para la producción de cultivos en estas regiones es el uso de tecnologías de captación de agua de lluvia in situ y su conservación. La adopción de los sistemas de conservación de la humedad del suelo in situ, tales como la labranza de conservación, es una de las estrategias para mejorar la gestión de la agricultura en zonas áridas y semiáridas. El objetivo general de esta tesis ha sido desarrollar una metodología de aplicación de labranza de depósito e investigar los efectos a corto plazo sobre las propiedades físicas del suelo de las diferentes prácticas de cultivo que incluyen labranza de depósito: (reservoir tillage, RT), la laboreo mínimo: (minimum tillage, MT), la no laboreo: (zero tillage, ZT) y laboreo convencional: (conventional tillage, CT) Así como, la retención de agua del suelo y el control de la erosión del suelo en las zonas áridas y semiáridas. Como una primera aproximación, se ha realizado una revisión profunda del estado de la técnica, después de la cual, se encontró que la labranza de depósito es un sistema eficaz de cosecha del agua de lluvia y conservación del suelo, pero que no ha sido evaluada científicamente tanto como otros sistemas de labranza. Los trabajos experimentales cubrieron tres condiciones diferentes: experimentos en laboratorio, experimentos de campo en una región árida, y experimentos de campo en una región semiárida. Para investigar y cuantificar el almacenamiento de agua a temperatura ambiente y la forma en que podría adaptarse para mejorar la infiltración del agua de lluvia recolectada y reducir la erosión del suelo, se ha desarrollado un simulador de lluvia a escala de laboratorio. Las características de las lluvias, entre ellas la intensidad de las precipitaciones, la uniformidad espacial y tamaño de la gota de lluvia, confirmaron que las condiciones naturales de precipitación son simuladas con suficiente precisión. El simulador fue controlado automáticamente mediante una válvula de solenoide y tres boquillas de presión que se usaron para rociar agua correspondiente a diferentes intensidades de lluvia. Con el fin de evaluar el método de RT bajo diferentes pendientes de superficie, se utilizaron diferentes dispositivos de pala de suelo para sacar un volumen idéntico para hacer depresiones. Estas depresiones se compararon con una superficie de suelo control sin depresión, y los resultados mostraron que la RT fue capaz de reducir la erosión del suelo y la escorrentía superficial y aumentar significativamente la infiltración. Luego, basándonos en estos resultados, y después de identificar la forma adecuada de las depresiones, se ha diseñado una herramienta combinada (sistema integrado de labranza de depósito (RT)) compuesto por un arado de una sola línea de chisel, una sola línea de grada en diente de pico, sembradora modificada, y rodillo de púas. El equipo fue construido y se utiliza para comparación con MT y CT en un ambiente árido en Egipto. El estudio se realizó para evaluar el impacto de diferentes prácticas de labranza y sus parámetros de funcionamiento a diferentes profundidades de labranza y con distintas velocidades de avance sobre las propiedades físicas del suelo, así como, la pérdida de suelo, régimen de humedad, la eficiencia de recolección de agua, y la productividad de trigo de invierno. Los resultados indicaron que la RT aumentó drásticamente la infiltración, produciendo una tasa que era 47.51% más alta que MT y 64.56% mayor que la CT. Además, los resultados mostraron que los valores más bajos de la escorrentía y pérdidas de suelos 4.91 mm y 0.65 t ha-1, respectivamente, se registraron en la RT, mientras que los valores más altos, 11.36 mm y 1.66 t ha-1, respectivamente, se produjeron en el marco del CT. Además, otros dos experimentos de campo se llevaron a cabo en ambiente semiárido en Madrid con la cebada y el maíz como los principales cultivos. También ha sido estudiado el potencial de la tecnología inalámbrica de sensores para monitorizar el potencial de agua del suelo. Para el experimento en el que se cultivaba la cebada en secano, se realizaron dos prácticas de labranza (RT y MT). Los resultados mostraron que el potencial del agua del suelo aumentó de forma constante y fue consistentemente mayor en MT. Además, con independencia de todo el período de observación, RT redujo el potencial hídrico del suelo en un 43.6, 5.7 y 82.3% respectivamente en comparación con el MT a profundidades de suelo (10, 20 y 30 cm, respectivamente). También se observaron diferencias claras en los componentes del rendimiento de los cultivos y de rendimiento entre los dos sistemas de labranza, el rendimiento de grano (hasta 14%) y la producción de biomasa (hasta 8.8%) se incrementaron en RT. En el experimento donde se cultivó el maíz en regadío, se realizaron cuatro prácticas de labranza (RT, MT, ZT y CT). Los resultados revelaron que ZT y RT tenían el potencial de agua y temperatura del suelo más bajas. En comparación con el tratamiento con CT, ZT y RT disminuyó el potencial hídrico del suelo en un 72 y 23%, respectivamente, a la profundidad del suelo de 40 cm, y provocó la disminución de la temperatura del suelo en 1.1 y un 0.8 0C respectivamente, en la profundidad del suelo de 5 cm y, por otro lado, el ZT tenía la densidad aparente del suelo y resistencia a la penetración más altas, la cual retrasó el crecimiento del maíz y disminuyó el rendimiento de grano que fue del 15.4% menor que el tratamiento con CT. RT aumenta el rendimiento de grano de maíz cerca de 12.8% en comparación con la ZT. Por otra parte, no hubo diferencias significativas entre (RT, MT y CT) sobre el rendimiento del maíz. En resumen, según los resultados de estos experimentos, se puede decir que mediante el uso de la labranza de depósito, consistente en realizar depresiones después de la siembra, las superficies internas de estas depresiones se consolidan de tal manera que el agua se mantiene para filtrarse en el suelo y por lo tanto dan tiempo para aportar humedad a la zona de enraizamiento de las plantas durante un período prolongado de tiempo. La labranza del depósito podría ser utilizada como un método alternativo en regiones áridas y semiáridas dado que retiene la humedad in situ, a través de estructuras que reducen la escorrentía y por lo tanto puede resultar en la mejora de rendimiento de los cultivos. ABSTRACT Water shortage in arid and semi-arid regions stems from low rainfall and uneven distribution throughout the season, which makes rainfed agriculture a precarious enterprise. One approach to enhance and stabilize the water available for crop production in these regions is to use in-situ rainwater harvesting and conservation technologies. Adoption of in-situ soil moisture conservation systems, such as conservation tillage, is one of the strategies for upgrading agriculture management in arid and semi-arid environments. The general aim of this thesis is to develop a methodology to apply reservoir tillage to investigate the short-term effects of different tillage practices including reservoir tillage (RT), minimum tillage (MT), zero tillage (ZT), and conventional tillage (CT) on soil physical properties, as well as, soil water retention, and soil erosion control in arid and semi-arid areas. As a first approach, a review of the state of the art has been done. We found that reservoir tillage is an effective system of harvesting rainwater and conserving soil, but it has not been scientifically evaluated like other tillage systems. Experimental works covered three different conditions: laboratory experiments, field experiments in an arid region, and field experiments in a semi-arid region. To investigate and quantify water storage from RT and how it could be adapted to improve infiltration of harvested rainwater and reduce soil erosion, a laboratory-scale rainfall simulator was developed. Rainfall characteristics, including rainfall intensity, spatial uniformity and raindrop size, confirm that natural rainfall conditions are simulated with sufficient accuracy. The simulator was auto-controlled by a solenoid valve and three pressure nozzles were used to spray water corresponding to different rainfall intensities. In order to assess the RT method under different surface slopes, different soil scooping devices with identical volume were used to create depressions. The performance of the soil with these depressions was compared to a control soil surface (with no depression). Results show that RT was able to reduce soil erosion and surface runoff and significantly increase infiltration. Then, based on these results and after selecting the proper shape of depressions, a combination implement integrated reservoir tillage system (integrated RT) comprised of a single-row chisel plow, single-row spike tooth harrow, modified seeder, and spiked roller was developed and used to compared to MT and CT in an arid environment in Egypt. The field experiments were conducted to evaluate the impact of different tillage practices and their operating parameters at different tillage depths and different forward speeds on the soil physical properties, as well as on runoff, soil losses, moisture regime, water harvesting efficiency, and winter wheat productivity. Results indicated that the integrated RT drastically increased infiltration, producing a rate that was 47.51% higher than MT and 64.56% higher than CT. In addition, results showed that the lowest values of runoff and soil losses, 4.91 mm and 0.65 t ha-1 respectively, were recorded under the integrated RT, while the highest values, 11.36 mm and 1.66 t ha -1 respectively, occurred under the CT. In addition, two field experiments were carried out in semi-arid environment in Madrid with barley and maize as the main crops. For the rainfed barley experiment, two tillage practices (RT, and MT) were performed. Results showed that soil water potential increased quite steadily and were consistently greater in MT and, irrespective of the entire observation period, RT decreased soil water potential by 43.6, 5.7, and 82.3% compared to MT at soil depths (10, 20, and 30 cm, respectively). In addition, clear differences in crop yield and yield components were observed between the two tillage systems, grain yield (up to 14%) and biomass yield (up to 8.8%) were increased by RT. For the irrigated maize experiment, four tillage practices (RT, MT, ZT, and CT) were performed. Results showed that ZT and RT had the lowest soil water potential and soil temperature. Compared to CT treatment, ZT and RT decreased soil water potential by 72 and 23% respectively, at soil depth of 40 cm, and decreased soil temperature by 1.1 and 0.8 0C respectively, at soil depth of 5 cm. Also, ZT had the highest soil bulk density and penetration resistance, which delayed the maize growth and decreased the grain yield that was 15.4% lower than CT treatment. RT increased maize grain yield about 12.8% compared to ZT. On the other hand, no significant differences among (RT, MT, and CT) on maize yield were found. In summary, according to the results from these experiments using reservoir tillage to make depressions after seeding, these depression’s internal surfaces are consolidated in such a way that the water is held to percolate into the soil and thus allowing time to offer moisture to the plant rooting zone over an extended period of time. Reservoir tillage could be used as an alternative method in arid and semi-arid regions and it retains moisture in-situ, through structures that reduce runoff and thus can result in improved crop yields.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente existen aplicaciones que permiten simular el comportamiento de bacterias en distintos hábitats y los procesos que ocurren en estos para facilitar su estudio y experimentación sin la necesidad de un laboratorio. Una de las aplicaciones de software libre para la simulación de poblaciones bacteriológicas mas usada es iDynoMiCS (individual-based Dynamics of Microbial Communities Simulator), un simulador basado en agentes que permite trabajar con varios modelos computacionales de bacterias en 2D y 3D. Este simulador permite una gran libertad al configurar una numerosa cantidad de variables con respecto al entorno, reacciones químicas y otros detalles importantes. Una característica importante es el poder simular de manera sencilla la conjugación de plásmidos entre bacterias. Los plásmidos son moléculas de ADN diferentes del cromosoma celular, generalmente circularles, que se replican, transcriben y conjugan independientemente del ADN cromosómico. Estas están presentes normalmente en bacterias procariotas, y en algunas ocasiones en eucariotas, sin embargo, en este tipo de células son llamados episomas. Dado el complejo comportamiento de los plásmidos y la gama de posibilidades que estos presentan como mecanismos externos al funcionamiento básico de la célula, en la mayoría de los casos confiriéndole distintas ventajas evolutivas, como por ejemplo: resistencia antibiótica, entre otros, resulta importante su estudio y subsecuente manipulación. Sin embargo, el marco operativo del iDynoMiCS, en cuanto a simulación de plásmidos se refiere, es demasiado sencillo y no permite realizar operaciones más complejas que el análisis de la propagación de un plásmido en la comunidad. El presente trabajo surge para resolver esta deficiencia de iDynomics. Aquí se analizarán, desarrollarán e implementarán las modificaciones necesarias para que iDynomics pueda simular satisfactoriamente y mas apegado a la realidad la conjugación de plásmidos y permita así mismo resolver distintas operaciones lógicas, como lo son los circuitos genéticos, basadas en plásmidos. También se analizarán los resultados obtenidos de acuerdo a distintos estudios relevantes y a la comparación de los resultados obtenidos con el código original de iDynomics. Adicionalmente se analizará un estudio comparando la eficiencia de detección de una sustancia mediante dos circuitos genéticos distintos. Asimismo el presente trabajo puede tener interés para el grupo LIA de la Facultad de Informática de la Universidad Politécnica de Madrid, el cual está participando en el proyecto europeo BACTOCOM que se centra en el estudio de la conjugación de plásmidos y circuitos genéticos. --ABSTRACT--Currently there are applications that simulate the behavior of bacteria in different habitats and the ongoing processes inside them to facilitate their study and experimentation without the need for an actual laboratory. One of the most used open source applications to simulate bacterial populations is iDynoMiCS (individual-based Dynamics of Microbial Communities Simulator), an agent-based simulator that allows working with several computer models of 2D and 3D bacteria in biofilms. This simulator allows great freedom by means of a large number of configurable variables regarding environment, chemical reactions and other important details of the simulation. Within these characteristics there exists a very basic framework to simulate plasmid conjugation. Plasmids are DNA molecules physically different from the cell’s chromosome, commonly found as small circular, double-stranded DNA molecules that are replicated, conjugated and transcribed independently of chromosomal DNA. These bacteria are normally present in prokaryotes and sometimes in eukaryotes, which in this case these cells are called episomes. Plasmids are external mechanisms to the cells basic operations, and as such, in the majority of the cases, confer to the host cell various evolutionary advantages, like antibiotic resistance for example. It is mperative to further study plasmids and the possibilities they present. However, the operational framework of the iDynoMiCS plasmid simulation is too simple, and does not allow more complex operations that the analysis of the spread of a plasmid in the community. This project was conceived to resolve this particular deficiency in iDynomics, moreover, in this paper is discussed, developed and implemented the necessary changes to iDynomics simulation software so it can satisfactorily and realistically simulate plasmid conjugation, and allow the possibility to solve various ogic operations, such as plasmid-based genetic circuits. Moreover the results obtained will be analyzed and compared with other relevant studies and with those obtained with the original iDynomics code. Conjointly, an additional study detailing the sensing of a substance with two different genetic circuits will be presented. This work may also be relevant to the LIA group of the Faculty of Informatics of the Polytechnic University of Madrid, which is participating in the European project BACTOCOM that focuses on the study of the of plasmid conjugation and genetic circuits.