67 resultados para Control del teclado
em Universidad Politécnica de Madrid
Resumo:
En este trabajo se realiza una sucinta recopilación de los últimos avances en la investigación aplicada al control del bitter pit en la Estación Experimental de Aula Dei (EEAD-CSIC). Se describen nuevas formulaciones y estrategias de aplicación foliar con calcio, un método físico postcosecha y el método de tinción selectiva de calcio en fruto
Resumo:
Se han estudiado los efectos de la aplicación de Rimadyl® (carprofeno 50 mg/ml) sobre la concentración de cortisol, temperatura rectal, frecuencia respiratoria, frecuencia cardiaca y motilidad ruminal, con el objetivo evaluar su eficacia en el control del dolor y la recuperación postquirúrgica, al aplicarlo antes de la cirugía por dislocación abomasal. Se seleccionaron 24 vacas de características similares que iban a someterse a cirugía por dislocación abomasal y se asignaron al azar a uno de los dos tratamientos experimentales: Rimadyl® o suero salino fisiológico. La aplicación de Rimadyl® disminuye (P=0,006) la concentración plasmática de cortisol (11,3 ng/mL vs 22,13 ng/mL). Con el tiempo se reducen (P=0,024) los niveles de cortisol plasmático. Esta reducción es más acusada (P=0,0003) con Rimadyl® a las 6 horas de su aplicación. La producción de leche postcirugía fue mayor en los animales que recibieron Rimadyl® en comparación con los que se les aplicó suero salino fisiológico
Resumo:
El Grupo de Diseño Electrónico y Microelectrónico de la Universidad Politécnica de Madrid -GDEM- se dedica, entre otras cosas, al estudio y mejora del consumo en sistemas empotrados. Es en este lugar y sobre este tema donde el proyecto a exponer ha tomado forma y desarrollo. Según un artículo de la revista online Revista de Electrónica Embebida, un sistema empotrado o embebido es aquel “sistema controlado por un microprocesador y que gracias a la programación que incorpora o que se le debe incorporar, realiza una función específica para la que ha sido diseñado, integrando en su interior la mayoría de los elementos necesarios para realizar dicho función”. El porqué de estudiar sobre este tema responde a que, cada vez, hay mayor presencia de sistemas empotrados en nuestra vida cotidiana. Esto es debido a que se está tendiendo a dotar de “inteligencia” a todo lo que puedan hacer nuestra vida un poco más fácil. Nos podemos encontrar dichos sistemas en fábricas, oficinas de atención a los ciudadanos, sistemas de seguridad de hogar, relojes, móviles, lavadoras, hornos, aspiradores y un largo etcétera en cualquier aparato que nos podamos imaginar. A pesar de sus grandes ventajas, aún hay grandes inconvenientes. El mayor problema que supone a día de hoy es la autonomía del mismo sistema, ya que hablamos de aparatos que muchas veces están alimentados por baterías -para ayudar a su portabilidad–. Por esto, se está intentando dotar a dichos sistemas de una capacidad de ahorro de energía y toma de decisiones que podrían ayudar a duplicar la autonomía de dicha batería. Un ejemplo claro son los Smartphones de hoy en día, unos aparatos casi indispensables que pueden tener una autonomía de un día. Esto es poco práctico para el usuario en caso de viajes, trabajo u otras situaciones en las que se le dé mucho uso y no pueda tener acceso a una red eléctrica. Es por esto que surge la necesidad de investigar, sin necesidad de mejorar el hardware del sistema, una manera de mejorar esta situación. Este proyecto trabajará en esa línea creando un sistema automático de medida el cual generará las corrientes que servirán como entrada para verificar el sistema de adquisición que junto con la tarjeta Beagle Board permitirá la toma de decisiones en relación con el consumo de energía. Para realizar este sistema, nos ayudaremos de diferentes herramientas que podremos encontrar en el laboratorio del GDEM, como la fuente de alimentación Agilent y la Beagle Board –como principales herramientas de trabajo- . El objetivo principal será la simulación de unas señales que, después de pasar un proceso de conversión y tratado, harán la función de representación del consumo de cada una de las partes que pueden formar un sistema empotrado genérico. Por lo tanto, podemos decir que el sistema hará la funcionalidad de un banco de pruebas que ayudará a simular dicho consumo para que el microprocesador del sistema pueda llegar a tomar alguna decisión. ABSTRACT. The Electronic and Microelectronic Design Group of Universidad Politécnica de Madrid -GDEM- is in charge, between other issues, of improving the embedded system’s consumption. It is in this place and about this subject where the exposed project has taken shape and development. According to an article from de online magazine Revista de Electronica Embebida, an embedded system is “the one controlled by a microprocessor and, thanks to the programing that it includes, it carries out a specific function what it has been designed for, being integrated in it the most necessary elements for realizing the already said function”. The because of studying this subject, answers that each time there is more presence of the embedded system in our daily life. This is due to the tendency of providing “intelligence” to all what can make our lives easier. We can find this kind of systems in factories, offices, security systems, watchers, mobile phones, washing machines, ovens, hoovers and, definitely, in all kind of machines what we can think of. Despite its large vantages, there are still some inconveniences. Nowadays, the most important problem is the autonomy of the system itself when machines that have to be supplied by batteries –making easier the portability-. Therefore, this project is going after a save capacity of energy for the system as well as being able to take decisions in order to duplicate batteries’ autonomy. Smartphones are a clear example. They are a very successful product but the autonomy is just one day. This is not practical for users, at all, if they have to travel, to work or to do any activity that involves a huge use of the phone without a socket nearby. That is why the need of investigating a way to improve this situation. This project is working on this line, creating an automatic system that will generate the currents for verifying the acquisition system that, with the beagle board, will help taking decisions regarding the energy’s consumption. To carry out this system, we need different tools that we can find in the laboratory of the group previously mentioned, like power supply Agilent and the Beagle Board – as main working tools –. The main goal is the simulation of some signals that, after a conversion process, will represent de consumption of each of the parts in the embedded generic system. Therefore, the system will be a testing ground that simulate the consumption, once sent to the processor, to be processed and so the microprocessor system might take some decision.
Resumo:
La presente Tesis Doctoral establece, con criterios científico-técnicos y como primera aproximación, una metodología para evaluar la protección ante los riesgos naturales que proporciona la restauración hidrológico-forestal de las cuencas hidrográficas de montaña, a los habitantes en ellas y a los transeúntes por las mismas. La investigación se ha planificado dividida en tres secciones en las que se analizan: 1) la protección que proporcionan las cubiertas forestales, tanto si son de regeneración natural o si proceden de reforestación; 2) la que se consigue con las obras ejecutadas en las propias cuencas y sus cauces de drenaje, que en el ámbito de la restauración hidrológico-forestal se vinculan con las reforestaciones, por lo que se hace intervenir a éstas en su evaluación y 3) la que se obtiene con las sinergias que surgen a lo largo de la consolidación de las reforestaciones y de las obras ejecutadas en la cuenca, cumpliendo con el proyecto para su restauración hidrológico-forestal; que se estiman en función del grado de cumplimiento de los objetivos específicos del mismo. La incidencia de las cubiertas forestales en el control de los riesgos naturales en la montaña se ha evaluado: a) teniendo en cuenta las experiencias de las investigaciones sobre la materia desarrolladas en la última década en el área alpina y b) analizando las características dasocráticas de las cubiertas forestales objeto de la investigación y, en función de ellas, identificando los parámetros más representativos que intervienen en el control de los principales riesgos naturales en la montaña (crecidas torrenciales, aludes, deslizamientos del terreno y caídas de bloques). La protección aportada por las obras de corrección se ha evaluado, considerado a las cuencas en las que están ubicadas como unidades específicas de corrección y analizando su comportamiento ante el mayor número de eventos torrenciales posible (que se han definido a partir de todas las precipitaciones registradas en las estaciones meteorológicas de serie histórica más larga, situadas en la cuenca en cuestión o más próximas a ella) y verificando a continuación incidencias que hayan ocurrido en la cuenca y el estado en que han quedado las obras. Con la evaluación de las sinergias surgidas a lo largo de la consolidación del proyecto de restauración, se ha tratado de precisar el grado de cumplimiento de sus principales objetivos; teniendo en cuenta que los resultados del proyecto, por su propia dinámica, se experimentan a medio y largo plazo; intervalo en el que pueden surgir distintos imponderables. En cualquier caso, la restauración de las cuencas de montaña no implica la desaparición en ellas de todos de los riesgos; sino un control de éstos y la consiguiente reducción de sus efectos. Por lo que es necesario realizar trabajos de mantenimiento de las reforestaciones y de las obras ejecutadas en ellas, para que conserven las condiciones de protección inicialmente diseñadas. La metodología se ha aplicado en cinco escenarios del Pirineo Aragonés; tres en los que en el pasado se efectuaron trabajos y obras de restauración hidrológico-forestal (las cuencas vertientes a los torrentes de Arratiecho y de Arás y el paraje de Los Arañones) y otros dos que no fueron intervenidos (la ladera de la margen derecha vertiente al cauce de Canal Roya y la ladera de solana de la cabera de la cuenca de Fondo de Pineta) que sirvan de contraste con los anteriores. ABSTRACT The present Thesis establish a methodology in first approach with scientist and technical criteria to assess the protection of persons provided by the water and forest restoration before natural risks in the mountain watersheds. The research has been planned into three sections where it is analysed: 1) the protection provided by the forest cover itself, either it comes from natural regeneration or reforestation; 2) the protection provided by the works executed within the watersheds and in the drainage channels, which it is bound together with the reforestations of water and forest restorations, assessing both effects at a time; and 3) the protection provided by the synergy that arises along the consolidation of the reforestations and the woks executed in the watersheds as the water and forest restoration project considered. This is estimated according the degree of accomplishment of its specific objectives. The impact of the forest covers in the control of natural risks in the mountain has been assessed: a) having into account the experience in the research about the topic developed in the last decades in the alpine area, and b) analysing the dasocratic characteristics of the forest covers and identifying the more representative parameters that take part in the control of the main natural risks in the mountain (torrential rises, avalanches, landslides and rock falls). The protection supplied by the correction works has been assessed considering the watershed as the specific correction unit, as well as analysing their behaviour before the largest number of torrential events possible. Those were defined from the precipitation recorded in the meteorological stations placed within or the closest to the watershed with long historic data. Then the incidents presented in the watershed and the state of the works are verified. The grade of accomplishment of the main objectives has been specified with the evaluation of the synergies raised along the restoration project. It has to be taken into account that the project has its own dynamics and its results show in mid and long term during a period with events unexpected. In any case, the restoration of the mountain basins doesn't imply the disappearance of all risk, but a control of them and the reduction of their effects. Then, it is necessary maintenance of the reforestations and of the works executed to conserve the protection conditions originally designed. The methodology has been applied into five scenes in the Aragonese Pyrenees; three in which works and water and forest restorations were executed in the past (watershed of Arratiecho and Aras torrents, and the Arañones location), and other two without any intervention that make contrast (the right hill-slope of Canal Roya and the south hill-slope of the headwaters of Pineta valley).
Resumo:
El objetivo principal de esta tesis doctoral es profundizar en el análisis y diseño de un sistema inteligente para la predicción y control del acabado superficial en un proceso de fresado a alta velocidad, basado fundamentalmente en clasificadores Bayesianos, con el prop´osito de desarrollar una metodolog´ıa que facilite el diseño de este tipo de sistemas. El sistema, cuyo propósito es posibilitar la predicción y control de la rugosidad superficial, se compone de un modelo aprendido a partir de datos experimentales con redes Bayesianas, que ayudar´a a comprender los procesos dinámicos involucrados en el mecanizado y las interacciones entre las variables relevantes. Dado que las redes neuronales artificiales son modelos ampliamente utilizados en procesos de corte de materiales, también se incluye un modelo para fresado usándolas, donde se introdujo la geometría y la dureza del material como variables novedosas hasta ahora no estudiadas en este contexto. Por lo tanto, una importante contribución en esta tesis son estos dos modelos para la predicción de la rugosidad superficial, que se comparan con respecto a diferentes aspectos: la influencia de las nuevas variables, los indicadores de evaluación del desempeño, interpretabilidad. Uno de los principales problemas en la modelización con clasificadores Bayesianos es la comprensión de las enormes tablas de probabilidad a posteriori producidas. Introducimos un m´etodo de explicación que genera un conjunto de reglas obtenidas de árboles de decisión. Estos árboles son inducidos a partir de un conjunto de datos simulados generados de las probabilidades a posteriori de la variable clase, calculadas con la red Bayesiana aprendida a partir de un conjunto de datos de entrenamiento. Por último, contribuimos en el campo multiobjetivo en el caso de que algunos de los objetivos no se puedan cuantificar en números reales, sino como funciones en intervalo de valores. Esto ocurre a menudo en aplicaciones de aprendizaje automático, especialmente las basadas en clasificación supervisada. En concreto, se extienden las ideas de dominancia y frontera de Pareto a esta situación. Su aplicación a los estudios de predicción de la rugosidad superficial en el caso de maximizar al mismo tiempo la sensibilidad y la especificidad del clasificador inducido de la red Bayesiana, y no solo maximizar la tasa de clasificación correcta. Los intervalos de estos dos objetivos provienen de un m´etodo de estimación honesta de ambos objetivos, como e.g. validación cruzada en k rodajas o bootstrap.---ABSTRACT---The main objective of this PhD Thesis is to go more deeply into the analysis and design of an intelligent system for surface roughness prediction and control in the end-milling machining process, based fundamentally on Bayesian network classifiers, with the aim of developing a methodology that makes easier the design of this type of systems. The system, whose purpose is to make possible the surface roughness prediction and control, consists of a model learnt from experimental data with the aid of Bayesian networks, that will help to understand the dynamic processes involved in the machining and the interactions among the relevant variables. Since artificial neural networks are models widely used in material cutting proceses, we include also an end-milling model using them, where the geometry and hardness of the piecework are introduced as novel variables not studied so far within this context. Thus, an important contribution in this thesis is these two models for surface roughness prediction, that are then compared with respecto to different aspects: influence of the new variables, performance evaluation metrics, interpretability. One of the main problems with Bayesian classifier-based modelling is the understanding of the enormous posterior probabilitiy tables produced. We introduce an explanation method that generates a set of rules obtained from decision trees. Such trees are induced from a simulated data set generated from the posterior probabilities of the class variable, calculated with the Bayesian network learned from a training data set. Finally, we contribute in the multi-objective field in the case that some of the objectives cannot be quantified as real numbers but as interval-valued functions. This often occurs in machine learning applications, especially those based on supervised classification. Specifically, the dominance and Pareto front ideas are extended to this setting. Its application to the surface roughness prediction studies the case of maximizing simultaneously the sensitivity and specificity of the induced Bayesian network classifier, rather than only maximizing the correct classification rate. Intervals in these two objectives come from a honest estimation method of both objectives, like e.g. k-fold cross-validation or bootstrap.
Resumo:
La Realidad Aumentada forma parte de múltiples proyectos de investigación desde hace varios años. La unión de la información del mundo real y la información digital ofrece un sinfín de posibilidades. Las más conocidas van orientadas a los juegos pero, gracias a ello, también se pueden implementar Interfaces Naturales. En otras palabras, conseguir que el usuario maneje un dispositivo electrónico con sus propias acciones: movimiento corporal, expresiones faciales, etc. El presente proyecto muestra el desarrollo de la capa de sistema de una Interfaz Natural, Mokey, que permite la simulación de un teclado mediante movimientos corporales del usuario. Con esto, se consigue que cualquier aplicación de un ordenador que requiera el uso de un teclado, pueda ser usada con movimientos corporales, aunque en el momento de su creación no fuese diseñada para ello. La capa de usuario de Mokey es tratada en el proyecto realizado por Carlos Lázaro Basanta. El principal objetivo de Mokey es facilitar el acceso de una tecnología tan presente en la vida de las personas como es el ordenador a los sectores de la población que tienen alguna discapacidad motora o movilidad reducida. Ya que vivimos en una sociedad tan informatizada, es esencial que, si se quiere hablar de inclusión social, se permita el acceso de la actual tecnología a esta parte de la población y no crear nuevas herramientas exclusivas para ellos, que generarían una situación de discriminación, aunque esta no sea intencionada. Debido a esto, es esencial que el diseño de Mokey sea simple e intuitivo, y al mismo tiempo que esté dotado de la suficiente versatilidad, para que el mayor número de personas discapacitadas puedan encontrar una configuración óptima para ellos. En el presente documento, tras exponer las motivaciones de este proyecto, se va a hacer un análisis detallado del estado del arte, tanto de la tecnología directamente implicada, como de otros proyectos similares. Se va prestar especial atención a la cámara Microsoft Kinect, ya que es el hardware que permite a Mokey detectar la captación de movimiento. Tras esto, se va a proceder a una explicación detallada de la Interfaz Natural desarrollada. Se va a prestar especial atención a todos aquellos algoritmos que han sido implementados para la detección del movimiento, así como para la simulación del teclado. Finalmente, se va realizar un análisis exhaustivo del funcionamiento de Mokey con otras aplicaciones. Se va a someter a una batería de pruebas muy amplia que permita determinar su rendimiento en las situaciones más comunes. Del mismo modo, se someterá a otra batería de pruebas destinada a definir su compatibilidad con los diferentes tipos de programas existentes en el mercado. Para una mayor precisión a la hora de analizar los datos, se va a proceder a comparar Mokey con otra herramienta similar, FAAST, pudiendo observar de esta forma las ventajas que tiene una aplicación especialmente pensada para gente discapacitada sobre otra que no tenía este fin. ABSTRACT. During the last few years, Augmented Reality has been an important part of several research projects, as the combination of the real world and the digital information offers a whole new set of possibilities. Among them, one of the most well-known possibilities are related to games by implementing Natural Interfaces, which main objective is to enable the user to handle an electronic device with their own actions, such as corporal movements, facial expressions… The present project shows the development of Mokey, a Natural Interface that simulates a keyboard by user’s corporal movements. Hence, any application that requires the use of a keyboard can be handled with this Natural Interface, even if the application was not designed in that way at the beginning. The main objective of Mokey is to simplify the use of the computer for those people that are handicapped or have some kind of reduced mobility. As our society has been almost completely digitalized, this kind of interfaces are essential to avoid social exclusion and discrimination, even when it is not intentional. Thus, some of the most important requirements of Mokey are its simplicity to use, as well as its versatility. In that way, the number of people that can find an optimal configuration for their particular condition will grow exponentially. After stating the motivations of this project, the present document will provide a detailed state of the art of both the technologies applied and other similar projects, highlighting the Microsoft Kinect camera, as this hardware allows Mokey to detect movements. After that, the document will describe the Natural Interface that has been developed, paying special attention to the algorithms that have been implemented to detect movements and synchronize the keyboard. Finally, the document will provide an exhaustive analysis of Mokey’s functioning with other applications by checking its behavior with a wide set of tests, so as to determine its performance in the most common situations. Likewise, the interface will be checked against another set of tests that will define its compatibility with different softwares that already exist on the market. In order to have better accuracy while analyzing the data, Mokey’s interface will be compared with a similar tool, FAAST, so as to highlight the advantages of designing an application that is specially thought for disabled people.
Resumo:
La fermentación del café es una de las operaciones críticas en el proceso de beneficiado por su impacto en la calidad organoléptica del producto final. De forma general la mayor parte de las explotaciones carecen de tecnificación alguna del fermentador, no teniendo el operario ninguna información objetiva sobre la evolución de los parámetros físico-químicos de control del proceso que le ayuden a la toma de decisión. El objetivo de este trabajo es la integración multi-distribuida de sensores de bajo coste y alta fiabilidad para supervisión de la operación de fermentación del café en origen. Concretamente se ha centrado en la caracterización térmica del proceso de fermentación, mediante la instalación multidistribuida de sensores inalámbricos de temperatura (TurboTag ®) en fermentadores de café en Colombia. El análisis: temporal de la evolución de la temperatura a lo largo del proceso de fermentación y complejo mediante diagrama de fases o de cinética de la evolución de las temperaturas, permiten en este trabajo caracterizar térmicamente fermentadores industriales y prototipos plásticos. Se ha constatado la alta heterogeneidad de las fermentaciones tanto intra-lote (amplitudes térmicas de hasta 8.5 ºC y temperaturas en algunos puntos de los fermentadores de 17 ºC) como inter-lote en fermentaciones sujetas a condiciones exógenas y endógenas muy variables
Resumo:
Es importante poder conocer la deformación que sufre una estructura en momentos concretos por carga, temperatura y comportamiento del suelo, refiriéndola a un marco externo estable. Esto puede realizarse mediante un control geodésico de deformaciones. La posterior comparación entre las coordenadas obtenidas de las diversas campañas de control, nos darán los movimientos relativos de la presa (o vectores de deformación) y alrededores, indicando si ha sufrido alguna deformación, información de suma importancia a la hora del mantenimiento y detección de posibles incidencias ocurridas en la estructura. La presa de La Tajera, ubicada en el río Tajuña en su tramo de cabecera, cuenta con una cuenca vertiente de 595 km2, desde la cual se atienden la mayoría de las demandas de la cuenca. La presa de titularidad estatal, lleva en servicio desde el año 1994. En Octubre de 2010, la Confederación Hidrográfica encargó la reobservación de la red geodésica de control y la comparación con la campaña de 1993 de la presa de La Antes de entrar en carga, con el embalse vacío y a altas temperaturas, se detectó una fisura en el paramento de aguas abajo, a lo largo de la transición entre bóveda y zócalo, extendiéndose hasta la clave de la galería perimetral. Motivo por el cual, se realizaron entre 2001 y 2002, varios trabajos de reparación, debido a los cuales se obstruyó parte del acceso a la infraestructura de control. La infraestructura de control de la presa de La Tajera consta de: - Red de pilares de control (incluyendo ménsulas de paramento en el extradós del muro de presa, en dos niveles.). - Red de nivelación trigonométrica de precisión de ménsulas de paramento. - Nivelación geométrica de precisión de las líneas existentes. Debido a la falta de control de geodésico desde el 1993, la comparación entre grupos de coordenadas, de tan solo dos épocas diferentes, aportó menos información que la que se hubiera obtenido haciendo controles anuales, puesto que no se pudo discernir entre movimientos atribuidos al asentamiento, carga, temperatura, fisuras u otros. En el 1993 se utilizó para la observación de la red el láser submilimétrico ME-5000, actualmente descatalogado, debido a lo cual, en el 2010 se optó por usar otro instrumento de gran precisión, para aprovechar la precisión del grupo de observaciones del 93, una Estación Total TRIMBLE S6, puesto que los requerimientos técnicos de precisión, quedaron cubiertos con sus precisiones instrumentales. Debido lo anterior, hubo que buscar un sistema común, coherente y riguroso de cálculo, para relacionar ambos grupos de observaciones bajo unos criterios comunes y poder así realizar un estudio comparativo de resultados. Previo a la observación, además de todas las verificaciones rutinarias, se uso un estudio de puntería por desorientación sobre los miniprimas, que concluía con la introducción de un casquillo suplementario de 13 mm, para evitar un posible error. También se realizó un estudio, para determinar el error producido, en las medidas de distancia, por la presión y la temperatura en el electrodistanciómetro. Como dato a tener en cuenta sobre las estaciones robóticas, decir que, durante la observación de la red de pilares hubo que detener el desagüe de la presa, puesto que las vibraciones producidas por este, impedían al sistema de puntería automática (Autolock) fijar la dirección a la estación visada. La nivelación trigonométrica de las ménsulas de paramento se hizo, en ambos años, por Nivelación trigonométrica de Precisión, descomponiendo la figura en triángulos independientes y observando cenitales recíprocos y simultáneos, con 3 teodolitos Wild T2 provistos de placas Nitrival pequeñas, esta técnica tiende a compensar errores de coeficiente de refracción y de esfericidad. Un error en la distancia geométrica repercute en función del coseno del ángulo cenital. Como en nuestro caso la determinación de distancias fue milimétrica, y las alturas de instrumentos eran las mismas, la precisión que obtuvimos en la determinación de desniveles fue submilimétrica. Las líneas de nivelación existentes se observaron, como en 1993, con nivelación geométrica de precisión, realizada con un equialtímetro NA2 provisto de micrómetro y observando sobre mira con escala ínvar. En los cálculos se usaron como coordenadas de referencia las obtenidas en 1993, de manera que los residuales mostraban directamente los vectores deformación. El control del 1993 se realizo con el embalse vació y a altas temperaturas, el control de 2010 se realizó con el embalse en carga máxima y con bajas temperaturas, este motivo se tuvo en cuenta a la hora de los cálculos y las interpretaciones de los vectores de deformación. Previo al trabajo de campo se realizó un reconocimiento como comprobación del estado de visuales entre pilares, el estado de los mismos, así como de los clavos de nivelación, para proceder posteriormente a realizar trabajos de tala entre visuales, limpieza de señales, y suplir las señales perdidas. El proyecto contiene la descripción del historial de control, de las actuaciones realizadas, los resultados obtenidos y toda la información relevante disponible, con las oportunas referencias a la campaña previa.
Resumo:
Introducción. La prevalencia de la Diabetes Gestacional (DG) varía en todo el mundo, así como entre los grupos raciales y étnicos del mismo país. Hasta la fecha actual, no se ha llegado a un consenso en el criterio diagnóstico, y eso dificulta una estimación veraz de prevalencia entre países. A pesar de ello, es ineludible obviar el incremento en la incidencia de esta complicación en todo el mundo, y la trascendencia de sus riesgos a la salud pública. En España, según los criterios clásicos –del National Diabetes Data Group- existe una alta prevalencia en un 8,8 % de DG en gestantes. Es importante encontrar la mejor vía para la prevención de la DG y, uno de los factores de riesgo parece ser el aumento excesivo de peso durante el embarazo. El ejercicio es un elemento fundamental para el control del metabolismo de la glucosa y para reducir los niveles de hiperlipidemia. Sin embargo, existe controversia para definir el tipo de sesiones, duración e intensidad que puedan contribuir a su prevención. Objetivo. Conocer en qué medida el ejercicio físico programado durante el embarazo, combinado en agua y tierra, con ejercicios aeróbicos y de tonificación muscular, puede actuar como un factor de prevención de la DG. Al mismo tiempo, valorar si exceder las recomendaciones de peso puede influir el diagnóstico de la DG. Material y Métodos. Este estudio se desarrolló mediante una colaboración entre la Universidad Politécnica de Madrid y los Servicios de Ginecología y Obstetricia del Hospital Universitario de Puerta de Hierro, el Hospital Universitario de Torrelodones y el Centro de Salud de Torrelodones. Se obtuvo la aprobación del Comité Ético de Investigación Clínica (CEIC). Se realizó un ensayo clínico, aleatorizado, controlado, no enmascarado. 272 mujeres gestantes sanas dieron su consentimiento informado para la inclusión en el estudio. De las cuáles, finalmente 257 (edad= 33,2±4,4 años) fueron analizadas, 101 de ellas correspondientes al grupo intervención (GI, n=101) y 156 al grupo control (GC, n=156). El inicio del programa correspondió a la semana 10-14 del embarazo hasta el final, la 38-40. Con una frecuencia de 3 sesiones semanales y una duración de 60 y 50 minutos, en tierra y agua, respectivamente. Resultados. Se halló diferencias significativas en los valores en los 180 min del test de tolerancia oral a la glucosa [GI: 98,00±29,48 mg/dl vs. GC: 116,25±29,90 mg/dl (t64= 2,37; p= 0,021)] y, de igual modo, el GI mostró menor prevalencia de la DG [GI: 1 %, Ejercicio y DG n= 1 vs. GC: 8,8 %, n= 13 (2 1= 6,84; p= 0,009)] y una estimación de riesgo significativa (OR= 9,604; 95 % CI: 1,23-74,66). La excesiva ganancia de peso fue menor en el GI [GI: 22,8 %, n= 23 vs. GC: 34,9 %, n= 53 (2 1= 4,22; p= 0,040)], pero no existió una correlación con la incidencia de DG (ϕ= -0,007; p= 0,910). Conclusiones. El programa de ejercicio desarrollado durante el embarazo mostró efectividad en la reducción de la prevalencia de la DG, preservó la tolerancia a la glucosa y redujo la excesiva ganancia de peso materno. Background. The prevalence of Gestational Diabetes (GD) varies around the world, as well as between racial and ethnic groups within the same country. Currently, there is not a consensus about the diagnostic criteria, and that makes it difficult to obtain accurate estimates of prevalence between countries. The increased trend in the prevalence across the globe and the risks for public health cannot be ignored. In Spain, according to the diagnostic criteria of National Diabetes Data Group, there is a prevalence of 8.8 % for GD in pregnant women. It is important to look for the best way to prevent GD and one of the risk factors seems to be excessive weight gained during pregnancy. Exercise is an essential element for glucose metabolic control and reducing hyperlipidemia levels. However, there is controversy to define the type of activity, duration and intensity to prevent GD. Objective. To assess the effectiveness of an exercise programme carried out during pregnancy (land/aquatic activities), both aerobic and muscular conditioning can help to the prevent GD. Also, to assess if excessive maternal weight gain influences the GD diagnosis. Material and methods. Collaboration between the Technical University of Madrid and the Gynecology and Obstetrics Department of Puerta de Hierro University Hospital, Torrelodones University Hospital and Health Center of Torrelodones supported the study. It was approved by the Clinical Research Ethics Committee (CEIC). A clinical, randomized controlled trial recruited 272 pregnant women without obstetric contraindications and gave informed consent for inclusion in the study. Of these women, 257 were studied (age= 33,2±4,4 years), 101 in intervention group (IG, n= 101) and 156 in control group (CG, n= 156). A physical exercise program three times per week during pregnancy was developed. The duration of the sessions was 60 minutes and 50 minutes in land and water, respectively. Results. The IG showed lower maternal values in the Oral Glucose Tolerance Test (OGTT) at 180 minutes [IG: 98,00±29,48 mg/dl vs. CG: 116,25±29,90 mg/dl (t64= 2,37; p= 0,021)] and the IG reduced the prevalence of GD [IG: 1%, n= 1 vs. CG: 8,8 %, n= 13 (2 1= 6,84; p= 0,009)] with a significance risk estimate (OR= 9,604; 95 % CI: 1,23- 74,66). Excessive maternal weight gain was less in the IG [IG: 22,8 %, n= 23 vs. CG: Exercise and GD 34,9 %, n= 53 (2 1= 4,22; p= 0,040)] but there was no correlation with the prevalence of GD (ϕ= -0,007; p= 0,910). Conclusions. The exercise programme performed during pregnancy reduced the prevalence of GD, preserved glucose tolerance and reduced excessive maternal weight gain.
Resumo:
El objetivo principal de esta Tesis es extender la utilización del “Soft- Computing” para el control de vehículos sin piloto utilizando visión. Este trabajo va más allá de los típicos sistemas de control utilizados en entornos altamente controlados, demonstrando la fuerza y versatilidad de la lógica difusa (Fuzzy Logic) para controlar vehículos aéreos y terrestres en un abanico de applicaciones diferentes. Para esta Tesis se ha realizado un gran número de pruebas reales en las cuales los controladores difusos han manejado una plataforma visual “pan-and-tilt”, un helicoptero, un coche comercial y hasta dos tipos de quadrirotores. El uso del método de optimización “Cross-Entropy” ha sido utilizado para mejorar el comportamiento de algunos de los controladores borrosos. Todos los controladores difusos presentados en ésta Tesis han sido implementados utilizando un código desarrollado por el candidato para tal efecto, llamado MOFS (Miguel Olivares’ Fuzzy Software). Diferentes algoritmos visuales han sido utilizados para adquirir la informaci´on visual del entorno, “Cmashift”, descomposición de la homografía y detección de marcas de realidad aumentada, entre otros. Dicha información visual ha sido utilizada como entrada de los controladores difusos para comandar los vehículos en las diferentes applicaciones autonomas. El volante de un vehículo comercial ha sido controlado para realizar pruebas de conducción autónoma en condiciones de tráfico similares a las de una ciudad. El sistema ha llegado a completar con éxito pruebas de más de 6 km sin ninguna interacción humana, mediante el seguimiento de una línea pintada en el suelo. El limitado campo visual del sistema no ha sido impedimento para alcanzar velocidades de hasta 48 km/h y ser guiado autonomamente en curvas de radio reducido. Objetos estáticos y móviles han sido seguidos desde un helicoptero no tripulado, mediante el control de una plataforma visual “pan-and-tilt”. ´Éste mismo helicoptero ha sido controlado completamente para su aterrizaje autonomo, mediante el control del movimiento lateral (roll), horizontal (pitch) y de altitud. El seguimiento de objetos volantes ha sido resulto mediante el control horizontal (pitch) y de orientación (heading) de un quadrirotor. Para tareas de evitación de obstáculos se ha implementado un controlador difuso para el manejo de la orientación (heading) de un quadrirotor. En el campo de la optimización de controladores se ha aportado al estado del arte una extensión del uso del método “Cross-Entropy”. Está Tesis presenta una novedosa implementación de dicho método para la optimización de las ganancias, la posición y medida de los conjuntos de las funciones de pertenecia y el peso de las reglas para mejorar el comportamiento de un controlador difuso. Dichos procesos de optimización se han realizado utilizando “ROS” y “Matlab Simulink” para obtener mejores resultados para la evitación de colisiones con vehículos aéreos no tripulados. Ésta Tesis demuestra que los controladores implementados con lógica difusa son altamente capaces de controlador sistemas sin tener en cuenta el modelo del vehículo a controlador en entornos altamente perturbables con un sensor de bajo coste como es una cámara. El ruido presentes causado por los cambios de iluminación en la adquisición de imágenes y la alta incertidumbre en la detección visual han sido manejados satisfactoriamente por ésta técnica de de “Soft-Computing” para distintas aplicaciones tanto con vehículos aéreos como terrestres.
Diseño, construcción y control de un robot doméstico para asistencia y entrenamiento de la movilidad
Resumo:
Esta tesis presenta el diseño conceptual, el análisis y la planificación de movimientos de un robot de asistencia domestica. El objetivo de este robot es ayudar a personas con problemas de movilidad, las cuales les impiden tener una vida independiente. Se realiza una investigación para identificar las principales necesidades de ayuda técnica y una revisión del estado del arte de robots de asistencia y rehabilitación. Esta información es empleada durante el proceso del diseño conceptual para establecer los objetivos del diseño identificar y las soluciones previamente propuestas. Posteriormente, se presenta la propuesta de un robot asistente para la marcha y el levantado de la posición de sentado, cuyo diseño permite al usuario realizar sus actividades de la vida diaria. Para evaluar diversos aspectos del concepto se desarrollo un prototipo a escala. Este prototipo fue útil para establecer la arquitectura de control del robot y probar el principio de funcionamiento de diversos elementos del concepto. Se propone la manera de controlar la ejecución de tareas y de navegación del robot, se simula y se analiza a través de las redes de Petri, se implementa y se prueba en el prototipo a escala. Se desarrollo el modelado dinámico y cinemático del robot. Se propone una relación entre la cinemática del movimiento de levantado normal de una persona y la cinemática del robot para generar las trayectorias a ejecutar por los actuadores. Mediante una herramienta de simulación se realizo un estudio de las fuerzas internas que se llevan a cabo en el usuario y en el robot durante la tarea de levantado. En este punto, se analizo la capacidad del robot para minimizar la fuerza que se ejerce en las articulaciones en la persona.
Resumo:
Este artículo propone la aplicación de técnicas de inteligencia de negocio para el seguimiento de alumnos en la plataforma educativa MERLIN, basada en portlets. Se hace una revisión de las funcionalidades de seguimiento existentes en las plataformas de e-learning más populares y se propone un módulo de seguimiento integrado basado en código abierto. Este módulo desarrolla un panel de control del estudiante que permite analizar su progreso desde diferentes perspectivas, que se componen con tecnología de portlets.
Resumo:
El origen del proyecto se encuentra en la mejora de un inversor trifásico sinusoidal comercial sobre la base del estudio de las técnicas de excitación óptimas para los IGBTs que lo componen en su etapa de potencia. En las primeras fases de planteamiento del proyecto se propone una idea mucho más ambiciosa, la realización de un nuevo convertidor de emergencia, destinado al sector ferroviario, para dar servicio de climatización. Este convertidor está formado por la asociación en cascada de un bloque DC/DC elevador y un bloque inversor DC/AC trifásico controlado mediante PWM con modulación sinusoidal. Se pretendía así dar solución a las siguientes problemáticas detectadas en los convertidores comercializados hasta el momento: un bloque elevador excesivamente sobredimensionado, subsistemas de control independientes para los dos bloques que configuran el convertidor, adicionalmente, la tarjeta driver se rediseña con cada cambio de especificaciones por parte de un nuevo cliente y finalmente, las comunicaciones tanto de diagnosis como de mantenimiento necesitaban una importante actualización. Inicialmente, se ha realizado un estudio teórico de los bloques elevador e inversor para poder realizar el diseño y dimensionamiento de sus componentes tanto semiconductores como electromagnéticos. Una vez completada la parte de potencia, se estudia el control que se realiza mediante medidas directas y simulación tanto de la estrategia de control del elevador como del inversor. Así se obtiene una información completa de la funcionalidad de las tarjetas existentes. Se desea realizar el diseño de una única tarjeta controladora y una única tarjeta de drivers para ambos bloques. Por problemas ajenos, en el transcurso de este proyecto se cancela su realización comercial, con lo que se decide al menos crear la placa de control y poder gobernar un convertidor ya existente, sustituyendo la tarjeta de control del bloque elevador. Para poder fabricar la placa de control se divide en dos tarjetas que irán conectadas en modo sándwich. En una tarjeta está el microcontrolador y en otra está todo el interface necesario para operar con el sistema: entradas y salidas digitales, entradas y salidas analógicas, comunicación CAN, y un pequeño DC/DC comercial que proporciona alimentación al prototipo. Se realiza un pequeño programa funcional para poder manejar el convertidor, el cual con una tensión de 110V DC, proporciona a la salida una tensión de 380V AC. Como ya se ha expuesto, debido a la cancelación del proyecto industrial no se profundiza más en su mejora y se decide proponerlo para su evaluación en su fase actual. ABSTRACT. The beginning of the project is found in the improvement of a commercial sine wave three phase inverter which is based in a study about optimal excitation techniques to IGBTs which compose in the power stage. In the early phases of project it is proposed a much more ambitious idea, the fact of a new emergency converter, proposed for the rail sector to work in an air condition unit. This converter is formed by an association of a block cascaded DC/DC booster and a block DC/AC inverter three-phase controlled by a sine wave modulation PWM. The purposed was to give a solution to following problems detected in commercial converters nowadays: an excessively oversized block boost, independent control subsystems for two blocks that configure the converter. In addition, driver board is redesigned with each specifications change demand it a new customer, and finally, the communications, diagnostic and maintenance that needed a important upgrade. Initially, it has been performed a theoretical study of boost and the inverter blocks to be able to perform the component’s design and the size (semiconductor and electromagnetic fields). Once finished power study, it is analysed the control performed using direct measures and simulation of boost control strategy and inverter. With this it is obtained complete information about existing cards functionality. The project is looking for the design of just one controller card and one drivers´ card for both blocks. By unrelated problems, during the course of this project a commercial realization. So at least its decided to create control board to be able to existing converter, replacing boost block’s control board. To be able to manufacture control board it is divided in two cards connected in sandwiching mode. In a card is microcontroller and in another is all needed interface to operate with the system: digital inputs and outputs, analogical inputs and outputs, CAN communication, and a small DC / DC business that provide power supply to the prototype. It is performed a small functional program to handle the converter, which with an input voltage 110V DC provides an output voltage 380V AC. As already has been exposed, due to industrial project cancellation it is decided no to continue with all improvements and directly to evaluate it in the current phase.
Resumo:
Hoy en día, el desarrollo tecnológico en el campo de los sistemas inteligentes de transporte (ITS por sus siglas en inglés) ha permitido dotar a los vehículos con diversos sistemas de ayuda a la conducción (ADAS, del inglés advanced driver assistance system), mejorando la experiencia y seguridad de los pasajeros, en especial del conductor. La mayor parte de estos sistemas están pensados para advertir al conductor sobre ciertas situaciones de riesgo, como la salida involuntaria del carril o la proximidad de obstáculos en el camino. No obstante, también podemos encontrar sistemas que van un paso más allá y son capaces de cooperar con el conductor en el control del vehículo o incluso relegarlos de algunas tareas tediosas. Es en este último grupo donde se encuentran los sistemas de control electrónico de estabilidad (ESP - Electronic Stability Program), el antibloqueo de frenos (ABS - Anti-lock Braking System), el control de crucero (CC - Cruise Control) y los más recientes sistemas de aparcamiento asistido. Continuando con esta línea de desarrollo, el paso siguiente consiste en la supresión del conductor humano, desarrollando sistemas que sean capaces de conducir un vehículo de forma autónoma y con un rendimiento superior al del conductor. En este trabajo se presenta, en primer lugar, una arquitectura de control para la automatización de vehículos. Esta se compone de distintos componentes de hardware y software, agrupados de acuerdo a su función principal. El diseño de la arquitectura parte del trabajo previo desarrollado por el Programa AUTOPIA, aunque introduce notables aportaciones en cuanto a la eficiencia, robustez y escalabilidad del sistema. Ahondando un poco más en detalle, debemos resaltar el desarrollo de un algoritmo de localización basado en enjambres de partículas. Este está planteado como un método de filtrado y fusión de la información obtenida a partir de los distintos sensores embarcados en el vehículo, entre los que encontramos un receptor GPS (Global Positioning System), unidades de medición inercial (IMU – Inertial Measurement Unit) e información tomada directamente de los sensores embarcados por el fabricante, como la velocidad de las ruedas y posición del volante. Gracias a este método se ha conseguido resolver el problema de la localización, indispensable para el desarrollo de sistemas de conducción autónoma. Continuando con el trabajo de investigación, se ha estudiado la viabilidad de la aplicación de técnicas de aprendizaje y adaptación al diseño de controladores para el vehículo. Como punto de partida se emplea el método de Q-learning para la generación de un controlador borroso lateral sin ningún tipo de conocimiento previo. Posteriormente se presenta un método de ajuste on-line para la adaptación del control longitudinal ante perturbaciones impredecibles del entorno, como lo son los cambios en la inclinación del camino, fricción de las ruedas o peso de los ocupantes. Para finalizar, se presentan los resultados obtenidos durante un experimento de conducción autónoma en carreteras reales, el cual se llevó a cabo en el mes de Junio de 2012 desde la población de San Lorenzo de El Escorial hasta las instalaciones del Centro de Automática y Robótica (CAR) en Arganda del Rey. El principal objetivo tras esta demostración fue validar el funcionamiento, robustez y capacidad de la arquitectura propuesta para afrontar el problema de la conducción autónoma, bajo condiciones mucho más reales a las que se pueden alcanzar en las instalaciones de prueba. ABSTRACT Nowadays, the technological advances in the Intelligent Transportation Systems (ITS) field have led the development of several driving assistance systems (ADAS). These solutions are designed to improve the experience and security of all the passengers, especially the driver. For most of these systems, the main goal is to warn drivers about unexpected circumstances leading to risk situations such as involuntary lane departure or proximity to other vehicles. However, other ADAS go a step further, being able to cooperate with the driver in the control of the vehicle, or even overriding it on some tasks. Examples of this kind of systems are the anti-lock braking system (ABS), cruise control (CC) and the recently commercialised assisted parking systems. Within this research line, the next step is the development of systems able to replace the human drivers, improving the control and therefore, the safety and reliability of the vehicles. First of all, this dissertation presents a control architecture design for autonomous driving. It is made up of several hardware and software components, grouped according to their main function. The design of this architecture is based on the previous works carried out by the AUTOPIA Program, although notable improvements have been made regarding the efficiency, robustness and scalability of the system. It is also remarkable the work made on the development of a location algorithm for vehicles. The proposal is based on the emulation of the behaviour of biological swarms and its performance is similar to the well-known particle filters. The developed method combines information obtained from different sensors, including GPS, inertial measurement unit (IMU), and data from the original vehicle’s sensors on-board. Through this filtering algorithm the localization problem is properly managed, which is critical for the development of autonomous driving systems. The work deals also with the fuzzy control tuning system, a very time consuming task when done manually. An analysis of learning and adaptation techniques for the development of different controllers has been made. First, the Q-learning –a reinforcement learning method– has been applied to the generation of a lateral fuzzy controller from scratch. Subsequently, the development of an adaptation method for longitudinal control is presented. With this proposal, a final cruise control controller is able to deal with unpredictable environment disturbances, such as road slope, wheel’s friction or even occupants’ weight. As a testbed for the system, an autonomous driving experiment on real roads is presented. This experiment was carried out on June 2012, driving from San Lorenzo de El Escorial up to the Center for Automation and Robotics (CAR) facilities in Arganda del Rey. The main goal of the demonstration was validating the performance, robustness and viability of the proposed architecture to deal with the problem of autonomous driving under more demanding conditions than those achieved on closed test tracks.
Resumo:
La movilidad geográfica es, sin lugar a dudas, uno de los aspectos sociales que más se viene potenciando en los últimos años tanto dentro como fuera de nuestras fronteras. En nuestro país, las difíciles condiciones orográficas hacen necesario desarrollar complejos proyectos donde los túneles son un elemento clave. Los recientes incendios acaecidos en túneles en todo el mundo han despertado inquietud en cuanto a la seguridad de este tipo de infraestructuras lo que a su vez ha servido para profundizar en el estudio de los fenómenos que intervienen en el desarrollo y control del fuego y los medios disponibles para paliar sus peligrosos efectos. En este sentido los riesgos relacionados con la seguridad se abordan mediante una aproximación global basada en primer lugar en la prevención y, posteriormente, la reducción de consecuencias. Dentro del conjunto de instalaciones disponibles en los túneles para abordar el segundo aspecto, el sistema de ventilación juega un papel fundamental por su relación con los criterios de seguridad. Por otra parte, el mayor conocimiento de los fenómenos que intervienen en los procesos de producción y evolución de los humos así como la complejidad de las nuevas obras permiten definir criterios de dimensionamiento y funcionamiento de la ventilación más sofisticados. Para ello se requieren grupos multidisciplinares de profesionales altamente especializados capaces de proyectar o supervisar este tipo de instalaciones cuya participación es fundamental desde las etapas más tempranas de este tipo de infraestucturas.