967 resultados para Aprendizaje basado en proyectos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este proyecto surge por la problemática ocasionada por elevadas cantidades de ruido ambiental producido por aviones en sus operaciones cotidianas como despegue, aterrizaje o estacionamiento, que afecta a zonas pobladas cercanas a recintos aeroportuarios. Una solución para medir y evaluar los niveles producidos por el ruido aeronáutico son los sistemas de monitorado de ruido. Gracias a ellos se puede tener un control acústico y mejorar la contaminación ambiental en las poblaciones que limitan con los aeropuertos. El objetivo principal será la elaboración de un prototipo de sistema de monitorado de ruido capaz de medir el mismo en tiempo real, así como detectar y evaluar eventos sonoros provocados por aviones. Para ello se cuenta con un material específico: ordenador portátil, tarjeta de sonido externa de dos canales, dos micrófonos y un software de medida diseñado y desarrollado por el autor. Este será el centro de control del sistema. Para su programación se utilizará la plataforma y entorno de desarrollo LabVIEW. La realización de esta memoria se estructurará en tres partes. La primera parte está dedicada al estado del arte, en la que se explicarán algunos de los conceptos teóricos que serán utilizados para la elaboración del proyecto. En la segunda parte se explica la metodología seguida para la realización del sistema de monitorado. En primer lugar se describe el equipo usado, a continuación se expone como se realizó el software de medida así como su arquitectura general y por último se describe la interfaz al usuario. La última parte presenta los experimentos realizados que demuestran el correcto funcionamiento del sistema. ABSTRACT. This project addresses for the problematics caused by high quantities of environmental noise produced by planes in his daily operations as takeoff, landing or parking produced in populated areas nearly to airport enclosures. A solution to measure and to evaluate the levels produced by the aeronautical noise are aircraft noise monitoring systems. Thanks to these systems it is possible to have an acoustic control and improve the acoustic pollution in the populations who border on the airports. The main objective of this project is the production of a noise monitoring systems prototype capable of measuring real time noise, beside detecting and to evaluate sonorous events produced by planes. The specific material used is portable computer,sound external card of two channels, two microphones and a software of measure designed and developed by the author. This one will be the control center of the system. For his programming is used the platform of development LabVIEW. This memory is structured in three parts. The first part is dedicated to the condition of the art, in that will be explained some of the theoretical concepts that will be used for the production of the project. The second phase is to explain the methodology followed for the development of the noise monitoring systems. First a description of the used equipment, the next step, it is exposed how was realized the software of measure and his general architecture and finally is described the software user interface. The last part presents the realized experiments that demonstrate the correct use of the system.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno de los problemas actuales en redes inalámbricas son las interferencias, las cuales causan que las transmisiones de información no son tan precisas como nos gustaría. Hoy en día, hay muchos métodos para mitigar este problema con más o menos eficacia, y nuevos métodos en desarrollo que procuran mejorar y simplificar las redes inalámbricas. Una de esas técnicas es la conocida como Alineamiento de Interferencias (IA). IA es un método que persigue una eficiente transmisión entre usuarios, mediante la división del espacio que ocupa la señal en dos partes (sub-espacios).Uno de ellos, se utiliza para la señal útil, mientras que el segundo se utilizará para la alineación de interferencias, logrando la máxima capacidad posible para la señal útil en una comunicación inalámbrica. IA es un gran método para el manejo de interferencias en un canal de comunicaciones. Recientes tests han demostrado incluso con una alta relación señal-ruido (SNR), es capaz de lograr hasta la mitad de capacidad para señal útil que habría en un canal libre de inteferencias. En este trabajo analizaremos estos parámetros, como se comporta el sistema y como alcanza la máxima capacidad del canal utilizado. Hay diferentes planteamientos usando esta tecnología. En las próximas páginas los compararemos entre sí y analizaremos su eficacia y cual de ellos consigue mayor rendimiento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El primer procesamiento estricto realizado con el software científico Bernese y contemplando las más estrictas normas de cálculo recomendadas internacionalmente, permitió obtener un campo puntual de alta exactitud, basado en la integración y estandarización de los datos de una red GPS ubicada en Costa Rica. Este procesamiento contempló un total de 119 semanas de datos diarios, es decir unos 2,3 años, desde enero del año 2009 hasta abril del año 2011, para un total de 30 estaciones GPS, de las cuales 22 están ubicadas en el territorio nacional de Costa Rica y 8 internaciones pertenecientes a la red del Sistema Geocéntrico para las Américas (SIRGAS). Las denominadas soluciones semilibres generaron, semana a semana, una red GPS con una alta exactitud interna definida por medio de los vectores entre las estaciones y las coordenadas finales de la constelación satelital. La evaluación semanal dada por la repetibilidad de las soluciones brindó en promedio errores de 1,7 mm, 1,4 mm y 5,1 mm en las componentes [n e u], confirmando una alta consistencia en estas soluciones. Aunque las soluciones semilibres poseen una alta exactitud interna, las mismas no son utilizables para fines de análisis cinemático, pues carecen de un marco de referencia. En Latinoamérica, la densificación del Marco Internacional Terrestre de Referencia (ITRF), está representado por la red de estaciones de operación continua GNSS de SIRGAS, denominada como SIRGAS-CON. Por medio de las denominadas coordenadas semanales finales de las 8 estaciones consideradas como vínculo, se refirió cada una de las 119 soluciones al marco SIRGAS. La introducción del marco de referencia SIRGAS a las soluciones semilibres produce deformaciones en estas soluciones. Las deformaciones de las soluciones semilibres son producto de las cinemática de cada una de las placas en las que se ubican las estaciones de vínculo. Luego de efectuado el amarre semanal a las coordenadas SIRGAS, se hizo una estimación de los vectores de velocidad de cada una de las estaciones, incluyendo las de amarre, cuyos valores de velocidad se conocen con una alta exactitud. Para la determinación de las velocidades de las estaciones costarricenses, se programó una rutina en ambiente MatLab, basada en una ajuste por mínimos cuadrados. Los valores obtenidos en el marco de este proyecto en comparación con los valores oficiales, brindaron diferencias promedio del orden de los 0,06 cm/a, -0,08 cm/a y -0,10 cm/a respectivamente para las coordenadas [X Y Z]. De esta manera se logró determinar las coordenadas geocéntricas [X Y Z]T y sus variaciones temporales [vX vY vZ]T para el conjunto de 22 estaciones GPS de Costa Rica, dentro del datum IGS05, época de referencia 2010,5. Aunque se logró una alta exactitud en los vectores de coordenadas geocéntricas de las 22 estaciones, para algunas de las estaciones el cálculo de las velocidades no fue representativo debido al relativo corto tiempo (menos de un año) de archivos de datos. Bajo esta premisa, se excluyeron las ocho estaciones ubicadas al sur de país. Esto implicó hacer una estimación del campo local de velocidades con solamente veinte estaciones nacionales más tres estaciones en Panamá y una en Nicaragua. El algoritmo usado fue el denominado Colocación por Mínimos Cuadrados, el cual permite la estimación o interpolación de datos a partir de datos efectivamente conocidos, el cual fue programado mediante una rutina en ambiente MatLab. El campo resultante se estimó con una resolución de 30' X 30' y es altamente constante, con una velocidad resultante promedio de 2,58 cm/a en una dirección de 40,8° en dirección noreste. Este campo fue validado con base en los datos del modelo VEMOS2009, recomendado por SIRGAS. Las diferencias de velocidad promedio para las estaciones usadas como insumo para el cálculo del campo fueron del orden los +0,63 cm/a y +0,22 cm/a para los valores de velocidad en latitud y longitud, lo que supone una buena determinación de los valores de velocidad y de la estimación de la función de covarianza empírica, necesaria para la aplicación del método de colocación. Además, la grilla usada como base para la interpolación brindó diferencias del orden de -0,62 cm/a y -0,12 cm/a para latitud y longitud. Adicionalmente los resultados de este trabajo fueron usados como insumo para hacer una aproximación en la definición del límite del llamado Bloque de Panamá dentro del territorio nacional de Costa Rica. El cálculo de las componentes del Polo de Euler por medio de una rutina programa en ambiente MatLab y aplicado a diferentes combinaciones de puntos no brindó mayores aportes a la definición física de este límite. La estrategia lo que confirmó fue simplemente la diferencia en la dirección de todos los vectores velocidad y no permitió reveló revelar con mayor detalle una ubicación de esta zona dentro del territorio nacional de Costa Rica. ABSTRACT The first strict processing performed with the Bernese scientific software and contemplating the highest standards internationally recommended calculation, yielded a precise field of high accuracy, based on the integration and standardization of data from a GPS network located in Costa Rica. This processing watched a total of 119 weeks of daily data, is about 2.3 years from January 2009 to April 2011, for a total of 30 GPS stations, of which 22 are located in the country of Costa Rica and 8 hospitalizations within the network of Geocentric System for the Americas (SIRGAS). The semi-free solutions generated, every week a GPS network with high internal accuracy defined by vectors between stations and the final coordinates of the satellite constellation. The weekly evaluation given by repeatability of the solutions provided in average errors of 1.7 mm 1.4 mm and 5.1 mm in the components [n e u], confirming a high consistency in these solutions. Although semi-free solutions have a high internal accuracy, they are not used for purposes of kinematic analysis, because they lack a reference frame. In Latin America, the densification of the International Terrestrial Reference Frame (ITRF), is represented by a network of continuously operating GNSS stations SIRGAS, known as SIRGAS-CON. Through weekly final coordinates of the 8 stations considered as a link, described each of the solutions to the frame 119 SIRGAS. The introduction of the frame SIRGAS to semi-free solutions generates deformations. The deformations of the semi-free solutions are products of the kinematics of each of the plates in which link stations are located. After SIRGAS weekly link to SIRGAS frame, an estimate of the velocity vectors of each of the stations was done. The velocity vectors for each SIRGAS stations are known with high accuracy. For this calculation routine in MatLab environment, based on a least squares fit was scheduled. The values obtained compared to the official values, gave average differences of the order of 0.06 cm/yr, -0.08 cm/yr and -0.10 cm/yr respectively for the coordinates [XYZ]. Thus was possible to determine the geocentric coordinates [XYZ]T and its temporal variations [vX vY vZ]T for the set of 22 GPS stations of Costa Rica, within IGS05 datum, reference epoch 2010.5. The high accuracy vector for geocentric coordinates was obtained, however for some stations the velocity vectors was not representative because of the relatively short time (less than one year) of data files. Under this premise, the eight stations located in the south of the country were excluded. This involved an estimate of the local velocity field with only twenty national stations plus three stations in Panama and Nicaragua. The algorithm used was Least Squares Collocation, which allows the estimation and interpolation of data from known data effectively. The algorithm was programmed with MatLab. The resulting field was estimated with a resolution of 30' X 30' and is highly consistent with a resulting average speed of 2.58 cm/y in a direction of 40.8° to the northeast. This field was validated based on the model data VEMOS2009 recommended by SIRGAS. The differences in average velocity for the stations used as input for the calculation of the field were of the order of +0.63 cm/yr, +0.22 cm/yr for the velocity values in latitude and longitude, which is a good determination velocity values and estimating the empirical covariance function necessary for implementing the method of application. Furthermore, the grid used as the basis for interpolation provided differences of about -0.62 cm/yr, -0.12 cm/yr to latitude and longitude. Additionally, the results of this investigation were used as input to an approach in defining the boundary of Panama called block within the country of Costa Rica. The calculation of the components of the Euler pole through a routine program in MatLab and applied to different combinations of points gave no further contributions to the physical definition of this limit. The strategy was simply confirming the difference in the direction of all the velocity vectors and not allowed to reveal more detail revealed a location of this area within the country of Costa Rica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La diabetes mellitus es una enfermedad que se caracteriza por la nula o insuficiente producción de insulina, o la resistencia del organismo a la misma. La insulina es una hormona que ayuda a que la glucosa llegue a los tejidos periféricos y al sistema nervioso para suministrar energía. Actualmente existen dos tipos de terapias aplicada en tejido subcutáneo: mediante inyección múltiple realizada con plumas, y la otra es mediante infusión continua de insulina por bomba (CSII). El mayor problema de esta terapia son los retardos por la absorción, tanto de los carbohidratos como de la insulina, y los retardos introducidos por el sensor subcutáneo de glucosa que mide la glucosa del líquido intersticial, lo deseable es controlar la glucosa en sangre. Para intentar independizar al paciente de su enfermedad se está trabajando en el desarrollo del páncreas endocrino artificial (PEA) que dotaría al paciente de una bomba de insulina, un sensor de glucosa y un controlador, el cual se encargaría de la toma de decisiones de las infusiones de insulina. Este proyecto persigue el diseño de un regulador en modo de funcionamiento en CL, con el objetivo de conseguir una regulación óptima del nivel de glucosa en sangre. El diseño de dicho regulador va a ser acometido utilizando la teoría del control por modelo interno (IMC). Esta teoría se basa en la idea de que es necesario realimentar la respuesta de un modelo aproximado del proceso que se quiere controlar. La salida del modelo, comparada con la del proceso real nos da la incertidumbre del modelo de la planta, frente a la planta real. Dado que según la teoría del modelo interno, estas diferencias se dan en las altas frecuencias, la teoría IMC propone un filtro paso bajo como regulador en serie con la inversa del modelo de la planta para conseguir el comportamiento deseado. Además se pretende implementar un Predictor Smith para minimizar los efectos del retardo de la medida del sensor. En el proyecto para conseguir la viabilidad del PEA se ha adaptado el controlador IMC clásico utilizando las ganancias estáticas de un modelo de glucosa, a partir de la ruta subcutánea de infusión y la vía subcutánea de medida. El modo de funcionamiento del controlador en SCL mejora el rango de normoglucemia, necesitando la intervención del paciente indicando anticipadamente el momento de las ingestas al controlador. El uso de un control SCL con el Predictor de Smith mejora los resultados pues se añade al controlador una variable sobre las ingestas con la participación del paciente. ABSTRACT. Diabetes mellitus is a group of metabolic diseases in which a person has high blood sugar, due to the body does not produce enough insulin, or because cells do not respond to the insulin produced. The insulin is a hormone that helps the glucose to reach to outlying tissues and the nervous system to supply energy. There are currently two types of therapies applied in subcutaneous tissue: the first one consists in using the intensive therapy with an insulin pen, and the other one is by continuous subcutaneous insulin infusion (CSII). The biggest problems of this therapy are the delays caused by the absorption of carbohydrates and insulin, and the delays introduced by the subcutaneous glucose sensor that measures glucose from interstitial fluid, it is suitable to control glucose blood. To try to improve these patients quality of life, work is being done on the development of an artificial endocrine pancreas (PEA) consisting of a subcutaneous insulin pump, a subcutaneous glucose sensor and an algorithm of glucose control, which would calculate the bolus that the pump would infuse to patient. This project aims to design a controller for closed-loop therapy, with the objective of obtain an optimal regulation of blood glucose level. The design of this controller will be formed using the theory of internal model control (IMC). This theory is based on the uncertainties given by a model to feedback the system control. Output model, in comparison with the actual process gives the uncertainty of the plant model, compared to the real plant. Since the theory of the internal model, these differences occur at high frequencies, the theory proposes IMC as a low pass filter regulator in series with the inverse model of the plant to get the required behavior. In addition, it will implement a Smith Predictor to minimize the effects of the delay measurement sensor. The project for the viability of PEA has adapted the classic IMC controller using the gains static of glucose model from the subcutaneous infusion and subcutaneous measuring. In simulation the SemiClosed-Loop controller get on the normoglycemia range, requiring patient intervention announce the bolus priming connected to intakes. Using an SCL control with the Smith Predictor improves the outcome because a variable about intakes is added to the controller through patient intervention.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La creciente complejidad, heterogeneidad y dinamismo inherente a las redes de telecomunicaciones, los sistemas distribuidos y los servicios avanzados de información y comunicación emergentes, así como el incremento de su criticidad e importancia estratégica, requieren la adopción de tecnologías cada vez más sofisticadas para su gestión, su coordinación y su integración por parte de los operadores de red, los proveedores de servicio y las empresas, como usuarios finales de los mismos, con el fin de garantizar niveles adecuados de funcionalidad, rendimiento y fiabilidad. Las estrategias de gestión adoptadas tradicionalmente adolecen de seguir modelos excesivamente estáticos y centralizados, con un elevado componente de supervisión y difícilmente escalables. La acuciante necesidad por flexibilizar esta gestión y hacerla a la vez más escalable y robusta, ha provocado en los últimos años un considerable interés por desarrollar nuevos paradigmas basados en modelos jerárquicos y distribuidos, como evolución natural de los primeros modelos jerárquicos débilmente distribuidos que sucedieron al paradigma centralizado. Se crean así nuevos modelos como son los basados en Gestión por Delegación, en el paradigma de código móvil, en las tecnologías de objetos distribuidos y en los servicios web. Estas alternativas se han mostrado enormemente robustas, flexibles y escalables frente a las estrategias tradicionales de gestión, pero continúan sin resolver aún muchos problemas. Las líneas actuales de investigación parten del hecho de que muchos problemas de robustez, escalabilidad y flexibilidad continúan sin ser resueltos por el paradigma jerárquico-distribuido, y abogan por la migración hacia un paradigma cooperativo fuertemente distribuido. Estas líneas tienen su germen en la Inteligencia Artificial Distribuida (DAI) y, más concretamente, en el paradigma de agentes autónomos y en los Sistemas Multi-agente (MAS). Todas ellas se perfilan en torno a un conjunto de objetivos que pueden resumirse en alcanzar un mayor grado de autonomía en la funcionalidad de la gestión y una mayor capacidad de autoconfiguración que resuelva los problemas de escalabilidad y la necesidad de supervisión presentes en los sistemas actuales, evolucionar hacia técnicas de control fuertemente distribuido y cooperativo guiado por la meta y dotar de una mayor riqueza semántica a los modelos de información. Cada vez más investigadores están empezando a utilizar agentes para la gestión de redes y sistemas distribuidos. Sin embargo, los límites establecidos en sus trabajos entre agentes móviles (que siguen el paradigma de código móvil) y agentes autónomos (que realmente siguen el paradigma cooperativo) resultan difusos. Muchos de estos trabajos se centran en la utilización de agentes móviles, lo cual, al igual que ocurría con las técnicas de código móvil comentadas anteriormente, les permite dotar de un mayor componente dinámico al concepto tradicional de Gestión por Delegación. Con ello se consigue flexibilizar la gestión, distribuir la lógica de gestión cerca de los datos y distribuir el control. Sin embargo se permanece en el paradigma jerárquico distribuido. Si bien continúa sin definirse aún una arquitectura de gestión fiel al paradigma cooperativo fuertemente distribuido, estas líneas de investigación han puesto de manifiesto serios problemas de adecuación en los modelos de información, comunicación y organizativo de las arquitecturas de gestión existentes. En este contexto, la tesis presenta un modelo de arquitectura para gestión holónica de sistemas y servicios distribuidos mediante sociedades de agentes autónomos, cuyos objetivos fundamentales son el incremento del grado de automatización asociado a las tareas de gestión, el aumento de la escalabilidad de las soluciones de gestión, soporte para delegación tanto por dominios como por macro-tareas, y un alto grado de interoperabilidad en entornos abiertos. A partir de estos objetivos se ha desarrollado un modelo de información formal de tipo semántico, basado en lógica descriptiva que permite un mayor grado de automatización en la gestión en base a la utilización de agentes autónomos racionales, capaces de razonar, inferir e integrar de forma dinámica conocimiento y servicios conceptualizados mediante el modelo CIM y formalizados a nivel semántico mediante lógica descriptiva. El modelo de información incluye además un “mapping” a nivel de meta-modelo de CIM al lenguaje de especificación de ontologías OWL, que supone un significativo avance en el área de la representación y el intercambio basado en XML de modelos y meta-información. A nivel de interacción, el modelo aporta un lenguaje de especificación formal de conversaciones entre agentes basado en la teoría de actos ilocucionales y aporta una semántica operacional para dicho lenguaje que facilita la labor de verificación de propiedades formales asociadas al protocolo de interacción. Se ha desarrollado también un modelo de organización holónico y orientado a roles cuyas principales características están alineadas con las demandadas por los servicios distribuidos emergentes e incluyen la ausencia de control central, capacidades de reestructuración dinámica, capacidades de cooperación, y facilidades de adaptación a diferentes culturas organizativas. El modelo incluye un submodelo normativo adecuado al carácter autónomo de los holones de gestión y basado en las lógicas modales deontológica y de acción.---ABSTRACT---The growing complexity, heterogeneity and dynamism inherent in telecommunications networks, distributed systems and the emerging advanced information and communication services, as well as their increased criticality and strategic importance, calls for the adoption of increasingly more sophisticated technologies for their management, coordination and integration by network operators, service providers and end-user companies to assure adequate levels of functionality, performance and reliability. The management strategies adopted traditionally follow models that are too static and centralised, have a high supervision component and are difficult to scale. The pressing need to flexibilise management and, at the same time, make it more scalable and robust recently led to a lot of interest in developing new paradigms based on hierarchical and distributed models, as a natural evolution from the first weakly distributed hierarchical models that succeeded the centralised paradigm. Thus new models based on management by delegation, the mobile code paradigm, distributed objects and web services came into being. These alternatives have turned out to be enormously robust, flexible and scalable as compared with the traditional management strategies. However, many problems still remain to be solved. Current research lines assume that the distributed hierarchical paradigm has as yet failed to solve many of the problems related to robustness, scalability and flexibility and advocate migration towards a strongly distributed cooperative paradigm. These lines of research were spawned by Distributed Artificial Intelligence (DAI) and, specifically, the autonomous agent paradigm and Multi-Agent Systems (MAS). They all revolve around a series of objectives, which can be summarised as achieving greater management functionality autonomy and a greater self-configuration capability, which solves the problems of scalability and the need for supervision that plague current systems, evolving towards strongly distributed and goal-driven cooperative control techniques and semantically enhancing information models. More and more researchers are starting to use agents for network and distributed systems management. However, the boundaries established in their work between mobile agents (that follow the mobile code paradigm) and autonomous agents (that really follow the cooperative paradigm) are fuzzy. Many of these approximations focus on the use of mobile agents, which, as was the case with the above-mentioned mobile code techniques, means that they can inject more dynamism into the traditional concept of management by delegation. Accordingly, they are able to flexibilise management, distribute management logic about data and distribute control. However, they remain within the distributed hierarchical paradigm. While a management architecture faithful to the strongly distributed cooperative paradigm has yet to be defined, these lines of research have revealed that the information, communication and organisation models of existing management architectures are far from adequate. In this context, this dissertation presents an architectural model for the holonic management of distributed systems and services through autonomous agent societies. The main objectives of this model are to raise the level of management task automation, increase the scalability of management solutions, provide support for delegation by both domains and macro-tasks and achieve a high level of interoperability in open environments. Bearing in mind these objectives, a descriptive logic-based formal semantic information model has been developed, which increases management automation by using rational autonomous agents capable of reasoning, inferring and dynamically integrating knowledge and services conceptualised by means of the CIM model and formalised at the semantic level by means of descriptive logic. The information model also includes a mapping, at the CIM metamodel level, to the OWL ontology specification language, which amounts to a significant advance in the field of XML-based model and metainformation representation and exchange. At the interaction level, the model introduces a formal specification language (ACSL) of conversations between agents based on speech act theory and contributes an operational semantics for this language that eases the task of verifying formal properties associated with the interaction protocol. A role-oriented holonic organisational model has also been developed, whose main features meet the requirements demanded by emerging distributed services, including no centralised control, dynamic restructuring capabilities, cooperative skills and facilities for adaptation to different organisational cultures. The model includes a normative submodel adapted to management holon autonomy and based on the deontic and action modal logics.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La introducción de las cirugías de mínima invasión en rutina clínica ha provocado la incorporación de los sistemas de vídeo dentro del quirófano. Así, estas técnicas proporcionan al cirujano imágenes que antes solo podían ser vistas mediante cirugía abierta. Los vídeos obtenidos en las intervenciones son almacenados en repositorios. El uso posterior de estos vídeos se ve limitado generalmente a su reproducción, debido a las dificultades de clasificación y gestión. La información que contienen estos repositorios puede ser explotada, reutilizando el conocimiento obtenido en cirugías similares. En este artículo de investigación se presenta el diseño de un módulo de gestión de conocimiento (MGC) para un repositorio de vídeos de cirugía de mínima invasión (CMI). El objetivo del módulo es gestionar y reutilizar la información contenida en el repositorio de vídeos laparoscópicos, para que puedan ser utilizadas con las experiencias previas en entornos de formación de nuevos cirujanos. Para este fin, se han implementado técnicas de recuperación de imagen y vídeo basadas en sus contenidos visuales (CBIR y CBVR). El MGC permite la recuperación de imágenes/vídeos, proporcionando información sobre la tarea que se está realizando en la escena quirúrgica. Los resultados obtenidos en este trabajo muestran la posibilidad de recuperar vídeos de CMI, a partir del instrumental presente en la escena quirúrgica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta tesis se ha profundizado en el estudio y desarrollo de modelos de soporte para el aprendizaje colaborativo a distancia, que ha permitido proponer una arquitectura fundamentada en los principios del paradigma CSCL (Computer Supported Collaborative Learning). La arquitectura propuesta aborda un tipo de problema concreto que requiere el uso de técnicas derivadas del Trabajo Colaborativo, la Inteligencia Artificial, Interfaces de Usuario así como ideas tomadas de la Pedagogía y la Psicología. Se ha diseñado una solución completa, abierta y genérica. La arquitectura aprovecha las nuevas tecnologías para lograr un sistema efectivo de apoyo a la educación a distancia. Está organizada en cuatro niveles: el de Configuración, el de Experiencia, el de Organización y el de Análisis. A partir de ella se ha implementado un sistema llamado DEGREE. En DEGREE, cada uno de los niveles de la arquitectura da lugar a un subsistema independiente pero relacionado con los otros. La aplicación saca partido del uso de espacios de trabajo estructurados. El subsistema Configurador de Experiencias permite definir los elementos de un espacio de trabajo y una experiencia y adaptarlos a cada tipo de usuario. El subsistema Manejador de Experiencias recoge las contribuciones de los usuarios para construir una solución conjunta de un problema. Las intervenciones de los alumnos se estructuran basándose en un grafo conversacional genérico. Además, se registran todas las acciones de los usuarios para representar explícitamente el proceso completo que lleva a la solución. Estos datos también se almacenan en una memoria común que constituye el subsistema llamado Memoria Organizativa de Experiencias. El subsistema Analizador estudia las intervenciones de los usuarios. Este análisis permite inferir conclusiones sobre la forma en que trabajan los grupos y sus actitudes frente a la colaboración, teniendo en cuenta además el conocimiento subjetivo del observador. El proceso de desarrollo en paralelo de la arquitectura y el sistema ha seguido un ciclo de refinamiento en cinco fases con sucesivas etapas de prototipado y evaluación formativa. Cada fase de este proceso se ha realizado con usuarios reales y se han considerado las opiniones de los usuarios para mejorar las funcionalidades de la arquitectura así como la interfaz del sistema. Esta aproximación ha permitido, además, comprobar la utilidad práctica y la validez de las propuestas que sustentan este trabajo.---ABSTRACT---In this thesis, we have studied in depth the development of support models for distance collaborative learning and subsequently devised an architecture based on the Computer Supported Collaborative Learning paradigm principles. The proposed architecture addresses a specific problem: coordinating groups of students to perform collaborative distance learning activities. Our approach uses Cooperative Work, Artificial Intelligence and Human-Computer Interaction techniques as well as some ideas from the fields of Pedagogy and Psychology. We have designed a complete, open and generic solution. Our architecture exploits the new information technologies to achieve an effective system for education purposes. It is organised into four levels: Configuration, Experience, Organisation and Reflection. This model has been implemented into a system called DEGREE. In DEGREE, each level of the architecture gives rise to an independent subsystem related to the other ones. The application benefits from the use of shared structured workspaces. The configuration subsystem allows customising the elements that define an experience and a workspace. The experience subsystem gathers the users' contributions to build joint solutions to a given problem. The students' interventions build up a structure based on a generic conversation graph. Moreover, all user actions are registered in order to represent explicitly the complete process for reaching the group solution. Those data are also stored into a common memory, which constitutes the organisation subsystem. The user interventions are studied by the reflection subsystem. This analysis allows us inferring conclusions about the way in which the group works and its attitudes towards collaboration. The inference process takes into account the observer's subjective knowledge. The process of developing both the architecture and the system in parallel has run through a five-pass cycle involving successive stages of prototyping and formative evaluation. At each stage of that process, we have considered the users' feedback for improving the architecture's functionalities as well as the system interface. This approach has allowed us to prove the usability and validity of our proposal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

(SPA) En este trabajo, se propone un nuevo índice basado en el método directo de Lyapunov para el diseño de un algoritmo de reprogramación en tiempo real para líneas de metro. En este estudio se utiliza una versión modificada de un modelo de espacio de estados en tiempo real discreto, que considera los efectos de saturación en la línea de metro. Una vez que el modelo de espacio de estados se ha obtenido, el método directo de Lyapunov se aplica con el fin de analizar la estabilidad del sistema de la línea de metro. Como resultado de este análisis no sólo se propone un nuevo índice de estabilidad, sino también la creación de tres zonas de estabilidad para indicar el estado actual del sistema. Finalmente, se presenta un nuevo algoritmo que permite la reprogramación del calendario de los trenes en tiempo real en presencia de perturbaciones medianas. (ENG) A new Lyapunov-based index for designing a rescheduling algorithm in real time for metro lines has been proposed in this paper. A modified real time discrete space state model which considers saturation effects in the metro line has been utilized in this study. Once the space state model has been obtained, the direct method of Lyapunov is applied in order to analyze the stability of the metro line system. As a result of this analysis not only a new stability index is proposed, but also the establishment of three stability zones to indicate the current state of the system. Finally, a new algorithm which allows the rescheduling of the timetable in the real time of the trains under presence of medium disturbances has been presented.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los pacientes con infarto de miocardio, las características de la escara isquémica, incluyendo la extensión de tejido heterogéneo (TH) y los canales intraescara, se relacionan con la mortalidad arrítmica. Sin embargo, aún no se conoce bien la evolución temporal de la estructura de la escara en los primeros meses tras el infarto agudo de miocardio (IAM).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Indudablemente, la extracción de recursos minerales entra en conflicto con otros usos del territorio. La planificación territorial puede evitar estos conflictos, minimizar los impactos acumulativos adversos de la minería y prevenir la disminución de recursos disponibles. Esto es especialmente cierto en lo referente a minerales industriales. El conocimiento de la distribución territorial de los recursos potenciales es la clave para alcanzar la integración efectiva de la minería en la planificación, y la mejor forma posible para salvaguardar los minerales frente a actividades que pueden comprometer su disponibilidad futura. Tanto en proyectos de ordenación minero-ambiental como en mapas de salvaguardia, los recursos minerales se han definido normalmente mediante el análisis de la información geológica cuando la escala no es detallada. Pero cuando se alcanzan escalas locales o municipales (mapas de gran escala), la planificación demanda más información para una mejor delimitación de los recursos. Esto puede requerir la recolección de datos de campo, la búsqueda de informes y documentos publicados, el inventario y la caracterización de explotaciones, y la consulta con la industria. El objetivo principal de este estudio es revisar varios trabajos de ordenación minera y ambiental, de cara a obtener un mejor conocimiento de las diferentes fórmulas y criterios utilizados para delimitar los recursos de rocas industriales presentes en un área. Se concluye que no existe una manera universal para abordar esta cuestión, y que una infraestructura de conocimiento geológico detallado es crucial para la planificación territorial de estos recursos minerales, en especial a escalas locales o municipales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las nuevas tendencias de compartir archivos multimedia a través de redes abiertas, demanda el uso de mejores técnicas de encriptación que garanticen la integridad, disponibilidad y confidencialidad, manteniendo y/o mejorando la eficiencia del proceso de cifrado sobre estos archivos. Hoy en día es frecuente la transferencia de imágenes a través de medios tecnológicos, siendo necesario la actualización de las técnicas de encriptación existentes y mejor aún, la búsqueda de nuevas alternativas. Actualmente los algoritmos criptográficos clásicos son altamente conocidos en medio de la sociedad informática lo que provoca mayor vulnerabilidad, sin contar los altos tiempos de procesamiento al momento de ser utilizados, elevando la probabilidad de ser descifrados y minimizando la disponibilidad inmediata de los recursos. Para disminuir estas probabilidades, el uso de la teoría de caos surge como una buena opción para ser aplicada en un algoritmo que tome partida del comportamiento caótico de los sistemas dinámicos, y aproveche las propiedades de los mapas logísticos para elevar el nivel de robustez en el cifrado. Es por eso que este trabajo propone la creación de un sistema criptográfico basado sobre una arquitectura dividida en dos etapas de confusión y difusión. Cada una de ellas utiliza una ecuación logística para generar números pseudoaleatorios que permitan desordenar la posición del píxel y cambiar su intensidad en la escala de grises. Este proceso iterativo es determinado por la cantidad total de píxeles de una imagen. Finalmente, toda la lógica de cifrado es ejecutada sobre la tecnología CUDA que permite el procesamiento en paralelo. Como aporte sustancial, se propone una nueva técnica de encriptación vanguardista de alta sensibilidad ante ruidos externos manteniendo no solo la confidencialidad de la imagen, sino también la disponibilidad y la eficiencia en los tiempos de proceso.---ABSTRACT---New trends to share multimedia files over open networks, demand the best use of encryption techniques to ensure the integrity, availability and confidentiality, keeping and/or improving the efficiency of the encryption process on these files. Today it is common to transfer pictures through technological networks, thus, it is necessary to update existing techniques encryption, and even better, the searching of new alternatives. Nowadays, classic cryptographic algorithms are highly known in the midst of the information society which not only causes greater vulnerability, but high processing times when this algorithms are used. It raise the probability of being deciphered and minimizes the immediate availability of resources. To reduce these odds, the use of chaos theory emerged as a good option to be applied on an algorithm that takes advantage of chaotic behavior of dynamic systems, and take logistic maps’ properties to raise the level of robustness in the encryption. That is why this paper proposes the creation of a cryptographic system based on an architecture divided into two stages: confusion and diffusion. Each stage uses a logistic equation to generate pseudorandom numbers that allow mess pixel position and change their intensity in grayscale. This iterative process is determined by the total number of pixels of an image. Finally, the entire encryption logic is executed on the CUDA technology that enables parallel processing. As a substantial contribution, it propose a new encryption technique with high sensitivity on external noise not only keeping the confidentiality of the image, but also the availability and efficiency in processing times.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis pretende contribuir al fomento y utilización de la energía solar como alternativa para la producción de agua caliente en el sector agroindustrial. La demanda de agua caliente es un aspecto clave en un gran número de agroindustrias y explotaciones agrarias. Esta demanda presenta una gran variabilidad, tanto en los horarios en que se solicita como en la temperatura del agua del depósito requerida (TADr), difiriendo del perfil de demanda habitual para uso doméstico. Existe una necesidad de profundizar en la influencia que tiene la variación de la TADr en la eficiencia y viabilidad de estos sistemas. El objetivo principal de esta tesis es caracterizar el funcionamiento de un sistema solar térmico (SST) con captador de tubos de vacío (CTV) para producir agua a temperaturas superiores a las habituales en estos sistemas. Se pretende determinar la influencia que la TADr tiene sobre la eficiencia energética del sistema, cuantificar el volumen de agua caliente que es capaz de suministrar en función de la TADr y determinar la rentabilidad del SST como sistema complementario de suministro. Para ello, se ha diseñado, instalado y puesto a punto un sistema experimental de calentamiento de agua, monitorizando su funcionamiento a diferentes TADr bajo condiciones ambientales reales. Los resultados cuantifican cómo el aumento de la TADr provoca una disminución de la energía suministrada al depósito, pudiendo superar diferencias de 1000 Wh m-2 d-1 entre 40 ºC y 80 ºC, para valores de irradiación solar próximos a 8000 Wh m-2 d-1 (la eficiencia del sistema oscila entre 73% y 56%). Esta reducción es consecuencia de la disminución de la eficiencia del captador y del aumento de las pérdidas de calor en las tuberías del circuito. En cuanto al agua suministrada, cuanto mayor es la TADr, mayor es la irradiación solar requerida para que tenga lugar la primera descarga de agua, aumentando el tiempo entre descargas y disminuyendo el número de éstas a lo largo del día. A medida que se incrementa la TADr, se produce una reducción del volumen de agua suministrado a la TADr, por factores como la pérdida de eficiencia del captador, las pérdidas en las tuberías, la energía acumulada en el agua que no alcanza la TADr y la mayor energía extraída del sistema en el agua producida. Para una TADr de 80 ºC, una parte importante de la energía permanece acumulada en el depósito sin alcanzar la TADr al final del día. Para aprovechar esta energía sería necesario disponer de un sistema complementario de suministro, ya que las pérdidas de calor nocturnas en el depósito pueden reducir considerablemente la energía útil disponible al día siguiente. La utilización del sistema solar como sistema único de suministro es inviable en la mayoría de los casos, especialmente a TADr elevadas, al no ajustarse la demanda de agua caliente a la estacionalidad de la producción del sistema solar, y al existir muchos días sin producción de agua caliente por la ausencia de irradiación mínima. Por el contrario, la inversión del sistema solar como sistema complementario para suministrar parte de la demanda térmica de una instalación es altamente recomendable. La energía útil anual del sistema solar estimada oscila entre 1322 kWh m-2 y 1084 kWh m-2. La mayor rentabilidad se obtendría suponiendo la existencia de una caldera eléctrica, donde la inversión se recuperaría en pocos años -entre 5.7 años a 40 ºC y 7.2 años a 80 ºC -. La rentabilidad también es elevada suponiendo la existencia de una caldera de gasóleo, con periodos de recuperación inferiores a 10 años. En una industria ficticia con demanda de 100 kWh d-1 y caldera de gasóleo existente, la inversión en una instalación solar optimizada sería rentable a cualquier TADr, con valores de VAN cercanos a la inversión realizada -12000 € a 80 ºC y 15000€ a 40 ºC- y un plazo de recuperación de la inversión entre 8 y 10 años. Los resultados de este estudio pueden ser de gran utilidad a la hora de determinar la viabilidad de utilización de sistemas similares para suministrar la demanda de agua caliente de agroindustrias y explotaciones agropecuarias, o para otras aplicaciones en las que se demande agua a temperaturas distintas de la habitual en uso doméstico (60 ºC). En cada caso, los rendimientos y la rentabilidad vendrán determinados por la irradiación de la zona, la temperatura del agua requerida y la curva de demanda de los procesos específicos. ABSTRACT The aim of this thesis is to contribute to the development and use of solar energy as an alternative for producing hot water in the agribusiness sector. Hot water supply is a key issue for a great many agribusinesses and agricultural holdings. Both hot water demand times and required tank water temperature (rTWT) are highly variable, where the demand profile tends to differ from domestic use. Further research is needed on how differences in rTWT influence the performance and feasibility of these systems. The main objective of this thesis is to characterize the performance and test the feasibility of an evacuated tube collector (ETC) solar water heating (SWH) system providing water at a higher temperature than is usual for such systems. The aim is to determine what influence the rTWT has on the system’s energy efficiency, quantify the volume of hot water that the system is capable of supplying at the respective rTWT and establish whether SWH is feasible as a booster supply system for the different analysed rTWTs. To do this, a prototype water heating system has been designed, installed and commissioned and its performance monitored at different rTWTs under real operating conditions. The quantitative results show that a higher rTWT results in a lower energy supply to the tank, where the differences may be greater than 1000 Wh m-2 d-1 from 40 ºC to 80 ºC for insolation values of around 8000 Wh m-2 d-1 (system efficiency ranges from 73% to 56%). The drop in supply is due to lower collector efficiency and greater heat losses from the pipe system. As regards water supplied at the rTWT, the insolation required for the first withdrawal of water to take place is greater at higher rTWTs, where the time between withdrawals increases and the number of withdrawals decreases throughout the day. As rTWT increases, the volume of water supplied at the rTWT decreases due to factors such as lower collector efficiency, pipe system heat losses, energy stored in the water at below the rTWT and more energy being extracted from the system by water heating. For a rTWT of 80 ºC, much of the energy is stored in the tank at below the rTWT at the end of the day. A booster supply system would be required to take advantage of this energy, as overnight tank heat losses may significantly reduce the usable energy available on the following day. It is often not feasible to use the solar system as a single supply system, especially at high rTWTs, as, unlike the supply from the solar heating system which does not produce hot water on many days of the year because insolation is below the required minimum, hot water demand is not seasonal. On the other hand, investment in a solar system as a booster system to meet part of a plant’s heat energy demand is highly recommended. The solar system’s estimated annual usable energy ranges from 1322 kWh m-2 to 1084 kWh m-2. Cost efficiency would be greatest if there were an existing electric boiler, where the payback period would be just a few years —from 5.7 years at 40 ºC to 7.2 years at 80 ºC—. Cost efficiency is also high if there is an existing diesel boiler with payback periods of under 10 years. In a fictitious industry with a demand of 100 kWh day-1 and an existing diesel boiler, the investment in the solar plant would be highly recommended at any rTWT, with a net present value similar to investment costs —12000 € at 80 ºC and 15000 € at 40 ºC— and a payback period of 10 years. The results of this study are potentially very useful for determining the feasibility of using similar systems for meeting the hot water demand of agribusinesses and arable and livestock farms or for other applications demanding water at temperatures not typical of domestic demand (60ºC). Performance and cost efficiency will be determined by the regional insolation, the required water temperature and the demand curve of the specific processes in each case.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El Daño Cerebral Adquirido (DCA) se ha convertido en una de las principales causas de discapacidad neurológica de las sociedades desarrolladas. La alteración de las funciones cognitivas como consecuencia del DCA, limita no sólo la calidad de vida del paciente sino también la de las persona de su entorno. Aunque la neurorrehabilitación permite recuperar algunas de las funciones alteradas aprovechando la naturaleza plástica del sistema nervioso, su práctica siguiendo procesos tradicionales no permiten en muchos casos ajustarse a las necesidades de cada individuo ni, en general, cubrir todos los aspectos necesarios que conviertan al proceso rehabilitador en un tratamiento realmente efectivo. La incorporación al proceso de rehabilitación de las nuevas tecnologías ha permitido aumentar la intensidad del tratamiento, personalizando y prolongándolo en el tiempo de forma sostenible. Los entornos virtuales (EV) apoyados en esta tendencia permiten reproducir Actividades de Vida Diaria (AVD) controladas que incrementan el valor ecológico de las terapias. Este Trabajo Fin de Grado aborda el uso pionero de la tecnología de Vídeo Interactivo (VI) para el desarrollo de dichos entornos en el campo de la rehabilitación cognitiva. En concreto, el objetivo del TFG es la evaluación de un EV de rehabilitación desarrollado mediante tecnología de VI e integrado con un sistema de Eye-Tracking, capaz de capturar y analizar la información referente al comportamiento visual del paciente. Para este fin, se realiza el diseño, implementación y evaluación de un estudio experimental que registre el comportamiento de diferentes sujetos ante dos modalidades de AVD.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este Trabajo Fin de Grado se ha realizado primero un informe técnico de la cámara de profundidad de la empresa SoftKinetic DepthSense 325 y de cuatro entornos de desarrollo que tiene como objetivo el uso de dicha cámara para el desarrollo de interfaces hombre-máquina: Perceptual Computing, RealSense, DepthSense e iisu. Posteriormente, tras la evaluación de los entornos de desarrollo y selección del más adecuado para el objetivo, se ha desarrollado un prototipo de un sistema de reconocimiento visual de gestos de manos. La principal contribución a dicho sistema es el uso de redes neuronales para la clasificación de patrones espacio-temporales que representan los gestos a reconocer. Para el entrenamiento de las redes neuronales, se han probado varias configuraciones y los métodos de optimización basados en Gradiente Conjugado y el Gradiente Conjugado Escalado, eficaces para grandes cantidades de información. El sistema propuesto basado en redes neuronales se ha comparado con las populares Máquinas Vectores Soporte, obteniéndose resultados equiparables en términos de reconocimiento de gestos

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El primer objetivo de este trabajo es realizar una comparación de las prestaciones de un nuevo sistema de comunicaciones llamado O3b y el resto de sistemas convencionales. Esta comparación se hará según una serie de parámetros: la altura de los satélites, la banda de frecuencia usada, la latencia de los enlaces, la potencia transmitida y las pérdidas de propagación de la señal. El segundo propósito del trabajo es el dimensionado de una red que use los estándares abiertos de comunicación por satélite DVB-S2 para el canal forward y DVB-RCS2 para el canal de retorno y usando las infraestructuras proporcionadas por el sistema O3b. Este sistema satelital ofrecerá servicio a una red 4G en un pueblo de Ecuador llamado Yangana.