832 resultados para control en tiempo real
Resumo:
[ES] La realización de los nuevos estudios de gestión de la demanda requiere nuevas aproximaciones en las que la red eléctrica se analiza como un sistema complejo. Estos están formados por un gran número de entidades fuertemente enlazadas entre sí. Se afronta el reto de añadir la capacidad de interacción sobre una simulación de sistemas complejos en tiempo de ejecución. Pero, ¿Cómo abordar la representación de un sistema complejo de tal manera que sea fácilmente gestionable por una persona?, o ¿Cómo ofrecer una manera sencilla de alterar la simulación?. Con esta idea nace Simulation Gateway Interface, un framework que permite hacer accesibles las simulaciones a través de una interfaz gráfica.
Resumo:
Este trabajo intenta profundizar el análisis de la perspectiva de género en considerando la historización del concepto de género en trayectos de formación de Profesionales Psicoeducativos. Para ello tomamos como recursos de análisis entrevistas a Profesionales Psicoeducativos en ejercicio en relación con la perspectiva de género y experiencias ligadas a la época de la propia formación como formadoras de formadores, para posteriormente avanzar sobre algunos documentos actuales y las posibilidades de reflexión que conlleva. A lo largo del tiempo es posible encontrar diferentes representaciones sociales sobre el género en los formadores y en los diseños curriculares y documentos de educación. Para este trabajo, en particular, entendemos que la Psicoeducación consiste en un proceso a través del cual el profesional psicoeducativo, el individuo, la familia y la comunidad se informan, se convencen, se fortalecen y se educan acerca de la problemática de género. Esta investigación insipiente pretende resultar un aporte en el conocimiento de las potencialidades de la educación en la transformación de desigualdades y la preparación de formadores para el ejercicio de la enseñanza desde la perspectiva de género. La formación de profesionales psicoeducativos ha sido objeto de preocupación a lo largo de la historia y es posible señalar que es uno de los problemas más significativos en el ámbito de los sistemas educativos. Así, dispositivos tradicionales de formación han evidenciado escasa eficacia en virtud de la complejidad de este tipo de saber. La formación profesional atraviesa aspectos subjetivos identitarios, que no remiten a una simple apropiación de conocimientos teóricos. Modelos situados en una didáctica racionalista priorizan la definición de adquisiciones y metas evaluables, entrenamientos sistemáticos y el control en cada una de las etapas de formación. La práctica adviene como una aplicación de la teoría. Otros enfoques, centrados en los procesos desde la perspectiva de la multidimensionalidad, destacan el valor de la vivencia de experiencias sociales e intelectuales, individuales y colectivas a lo largo de la formación. Objetivos: -Profundizar el análisis de la perspectiva de género en diferentes momentos históricos en relación con experiencias formativas en la formación profesional en el nivel superior. Material y Métodos: Análisis de Entrevistas a agentes psicoeducativos a informantes claves y de documentos curriculares en relación con la perspectiva de género. Resultados y Conclusiones: Se presentarán resultados de la insipiente indagación sobre la perspectiva de género realizada. En los comienzos del nuevo siglo, se origina una demanda de cambio en la Educación Superior, la cual se fundamenta en la importancia que este tipo de educación reviste para la construcción del futuro de las personas, de cara a lo cual, las nuevas generaciones deberán estar preparadas con múltiples competencias para afrontar las transformaciones que avizora el propio desarrollo económico y social de la contemporaneidad. Constituyen uno de los grandes retos de nuestras instituciones de formación docente el análisis de la pertinencia curricular, la renovación de los planes de estudio y la recreación de estrategias de enseñanza y de aprendizaje acordes con estos cambios. Considerar la formación profesional como un proceso de construcción permanente lleva a considerar la apropiación, el desarrollo, la actualización, la reconversión, la estructuración, la ampliación, etc. de las capacidades y competencias requeridas para el desempeño, pero además representa una oportunidad para la reinvención del vínculo entre sujeto y trabajo desde nuevas perspectivas. La multidimensionalidad constitutiva de las tareas de enseñar y aprender en contextos complejos entraña un desafío que interpela a los profesionales psicoeducativos. No resulta una tarea sencilla y en pos de promover una reestructuración crítica se exige el compromiso social de todos los actores involucrados en el Nivel superior de la Enseñanza
Resumo:
Este trabajo intenta profundizar el análisis de la perspectiva de género en considerando la historización del concepto de género en trayectos de formación de Profesionales Psicoeducativos. Para ello tomamos como recursos de análisis entrevistas a Profesionales Psicoeducativos en ejercicio en relación con la perspectiva de género y experiencias ligadas a la época de la propia formación como formadoras de formadores, para posteriormente avanzar sobre algunos documentos actuales y las posibilidades de reflexión que conlleva. A lo largo del tiempo es posible encontrar diferentes representaciones sociales sobre el género en los formadores y en los diseños curriculares y documentos de educación. Para este trabajo, en particular, entendemos que la Psicoeducación consiste en un proceso a través del cual el profesional psicoeducativo, el individuo, la familia y la comunidad se informan, se convencen, se fortalecen y se educan acerca de la problemática de género. Esta investigación insipiente pretende resultar un aporte en el conocimiento de las potencialidades de la educación en la transformación de desigualdades y la preparación de formadores para el ejercicio de la enseñanza desde la perspectiva de género. La formación de profesionales psicoeducativos ha sido objeto de preocupación a lo largo de la historia y es posible señalar que es uno de los problemas más significativos en el ámbito de los sistemas educativos. Así, dispositivos tradicionales de formación han evidenciado escasa eficacia en virtud de la complejidad de este tipo de saber. La formación profesional atraviesa aspectos subjetivos identitarios, que no remiten a una simple apropiación de conocimientos teóricos. Modelos situados en una didáctica racionalista priorizan la definición de adquisiciones y metas evaluables, entrenamientos sistemáticos y el control en cada una de las etapas de formación. La práctica adviene como una aplicación de la teoría. Otros enfoques, centrados en los procesos desde la perspectiva de la multidimensionalidad, destacan el valor de la vivencia de experiencias sociales e intelectuales, individuales y colectivas a lo largo de la formación. Objetivos: -Profundizar el análisis de la perspectiva de género en diferentes momentos históricos en relación con experiencias formativas en la formación profesional en el nivel superior. Material y Métodos: Análisis de Entrevistas a agentes psicoeducativos a informantes claves y de documentos curriculares en relación con la perspectiva de género. Resultados y Conclusiones: Se presentarán resultados de la insipiente indagación sobre la perspectiva de género realizada. En los comienzos del nuevo siglo, se origina una demanda de cambio en la Educación Superior, la cual se fundamenta en la importancia que este tipo de educación reviste para la construcción del futuro de las personas, de cara a lo cual, las nuevas generaciones deberán estar preparadas con múltiples competencias para afrontar las transformaciones que avizora el propio desarrollo económico y social de la contemporaneidad. Constituyen uno de los grandes retos de nuestras instituciones de formación docente el análisis de la pertinencia curricular, la renovación de los planes de estudio y la recreación de estrategias de enseñanza y de aprendizaje acordes con estos cambios. Considerar la formación profesional como un proceso de construcción permanente lleva a considerar la apropiación, el desarrollo, la actualización, la reconversión, la estructuración, la ampliación, etc. de las capacidades y competencias requeridas para el desempeño, pero además representa una oportunidad para la reinvención del vínculo entre sujeto y trabajo desde nuevas perspectivas. La multidimensionalidad constitutiva de las tareas de enseñar y aprender en contextos complejos entraña un desafío que interpela a los profesionales psicoeducativos. No resulta una tarea sencilla y en pos de promover una reestructuración crítica se exige el compromiso social de todos los actores involucrados en el Nivel superior de la Enseñanza
Resumo:
Este trabajo intenta profundizar el análisis de la perspectiva de género en considerando la historización del concepto de género en trayectos de formación de Profesionales Psicoeducativos. Para ello tomamos como recursos de análisis entrevistas a Profesionales Psicoeducativos en ejercicio en relación con la perspectiva de género y experiencias ligadas a la época de la propia formación como formadoras de formadores, para posteriormente avanzar sobre algunos documentos actuales y las posibilidades de reflexión que conlleva. A lo largo del tiempo es posible encontrar diferentes representaciones sociales sobre el género en los formadores y en los diseños curriculares y documentos de educación. Para este trabajo, en particular, entendemos que la Psicoeducación consiste en un proceso a través del cual el profesional psicoeducativo, el individuo, la familia y la comunidad se informan, se convencen, se fortalecen y se educan acerca de la problemática de género. Esta investigación insipiente pretende resultar un aporte en el conocimiento de las potencialidades de la educación en la transformación de desigualdades y la preparación de formadores para el ejercicio de la enseñanza desde la perspectiva de género. La formación de profesionales psicoeducativos ha sido objeto de preocupación a lo largo de la historia y es posible señalar que es uno de los problemas más significativos en el ámbito de los sistemas educativos. Así, dispositivos tradicionales de formación han evidenciado escasa eficacia en virtud de la complejidad de este tipo de saber. La formación profesional atraviesa aspectos subjetivos identitarios, que no remiten a una simple apropiación de conocimientos teóricos. Modelos situados en una didáctica racionalista priorizan la definición de adquisiciones y metas evaluables, entrenamientos sistemáticos y el control en cada una de las etapas de formación. La práctica adviene como una aplicación de la teoría. Otros enfoques, centrados en los procesos desde la perspectiva de la multidimensionalidad, destacan el valor de la vivencia de experiencias sociales e intelectuales, individuales y colectivas a lo largo de la formación. Objetivos: -Profundizar el análisis de la perspectiva de género en diferentes momentos históricos en relación con experiencias formativas en la formación profesional en el nivel superior. Material y Métodos: Análisis de Entrevistas a agentes psicoeducativos a informantes claves y de documentos curriculares en relación con la perspectiva de género. Resultados y Conclusiones: Se presentarán resultados de la insipiente indagación sobre la perspectiva de género realizada. En los comienzos del nuevo siglo, se origina una demanda de cambio en la Educación Superior, la cual se fundamenta en la importancia que este tipo de educación reviste para la construcción del futuro de las personas, de cara a lo cual, las nuevas generaciones deberán estar preparadas con múltiples competencias para afrontar las transformaciones que avizora el propio desarrollo económico y social de la contemporaneidad. Constituyen uno de los grandes retos de nuestras instituciones de formación docente el análisis de la pertinencia curricular, la renovación de los planes de estudio y la recreación de estrategias de enseñanza y de aprendizaje acordes con estos cambios. Considerar la formación profesional como un proceso de construcción permanente lleva a considerar la apropiación, el desarrollo, la actualización, la reconversión, la estructuración, la ampliación, etc. de las capacidades y competencias requeridas para el desempeño, pero además representa una oportunidad para la reinvención del vínculo entre sujeto y trabajo desde nuevas perspectivas. La multidimensionalidad constitutiva de las tareas de enseñar y aprender en contextos complejos entraña un desafío que interpela a los profesionales psicoeducativos. No resulta una tarea sencilla y en pos de promover una reestructuración crítica se exige el compromiso social de todos los actores involucrados en el Nivel superior de la Enseñanza
Resumo:
Distributed real-time embedded systems are becoming increasingly important to society. More demands will be made on them and greater reliance will be placed on the delivery of their services. A relevant subset of them is high-integrity or hard real-time systems, where failure can cause loss of life, environmental harm, or significant financial loss. Additionally, the evolution of communication networks and paradigms as well as the necessity of demanding processing power and fault tolerance, motivated the interconnection between electronic devices; many of the communications have the possibility of transferring data at a high speed. The concept of distributed systems emerged as systems where different parts are executed on several nodes that interact with each other via a communication network. Java’s popularity, facilities and platform independence have made it an interesting language for the real-time and embedded community. This was the motivation for the development of RTSJ (Real-Time Specification for Java), which is a language extension intended to allow the development of real-time systems. The use of Java in the development of high-integrity systems requires strict development and testing techniques. However, RTJS includes a number of language features that are forbidden in such systems. In the context of the HIJA project, the HRTJ (Hard Real-Time Java) profile was developed to define a robust subset of the language that is amenable to static analysis for high-integrity system certification. Currently, a specification under the Java community process (JSR- 302) is being developed. Its purpose is to define those capabilities needed to create safety critical applications with Java technology called Safety Critical Java (SCJ). However, neither RTSJ nor its profiles provide facilities to develop distributed realtime applications. This is an important issue, as most of the current and future systems will be distributed. The Distributed RTSJ (DRTSJ) Expert Group was created under the Java community process (JSR-50) in order to define appropriate abstractions to overcome this problem. Currently there is no formal specification. The aim of this thesis is to develop a communication middleware that is suitable for the development of distributed hard real-time systems in Java, based on the integration between the RMI (Remote Method Invocation) model and the HRTJ profile. It has been designed and implemented keeping in mind the main requirements such as the predictability and reliability in the timing behavior and the resource usage. iThe design starts with the definition of a computational model which identifies among other things: the communication model, most appropriate underlying network protocols, the analysis model, and a subset of Java for hard real-time systems. In the design, the remote references are the basic means for building distributed applications which are associated with all non-functional parameters and resources needed to implement synchronous or asynchronous remote invocations with real-time attributes. The proposed middleware separates the resource allocation from the execution itself by defining two phases and a specific threading mechanism that guarantees a suitable timing behavior. It also includes mechanisms to monitor the functional and the timing behavior. It provides independence from network protocol defining a network interface and modules. The JRMP protocol was modified to include two phases, non-functional parameters, and message size optimizations. Although serialization is one of the fundamental operations to ensure proper data transmission, current implementations are not suitable for hard real-time systems and there are no alternatives. This thesis proposes a predictable serialization that introduces a new compiler to generate optimized code according to the computational model. The proposed solution has the advantage of allowing us to schedule the communications and to adjust the memory usage at compilation time. In order to validate the design and the implementation a demanding validation process was carried out with emphasis in the functional behavior, the memory usage, the processor usage (the end-to-end response time and the response time in each functional block) and the network usage (real consumption according to the calculated consumption). The results obtained in an industrial application developed by Thales Avionics (a Flight Management System) and in exhaustive tests show that the design and the prototype are reliable for industrial applications with strict timing requirements. Los sistemas empotrados y distribuidos de tiempo real son cada vez más importantes para la sociedad. Su demanda aumenta y cada vez más dependemos de los servicios que proporcionan. Los sistemas de alta integridad constituyen un subconjunto de gran importancia. Se caracterizan por que un fallo en su funcionamiento puede causar pérdida de vidas humanas, daños en el medio ambiente o cuantiosas pérdidas económicas. La necesidad de satisfacer requisitos temporales estrictos, hace más complejo su desarrollo. Mientras que los sistemas empotrados se sigan expandiendo en nuestra sociedad, es necesario garantizar un coste de desarrollo ajustado mediante el uso técnicas adecuadas en su diseño, mantenimiento y certificación. En concreto, se requiere una tecnología flexible e independiente del hardware. La evolución de las redes y paradigmas de comunicación, así como la necesidad de mayor potencia de cómputo y de tolerancia a fallos, ha motivado la interconexión de dispositivos electrónicos. Los mecanismos de comunicación permiten la transferencia de datos con alta velocidad de transmisión. En este contexto, el concepto de sistema distribuido ha emergido como sistemas donde sus componentes se ejecutan en varios nodos en paralelo y que interactúan entre ellos mediante redes de comunicaciones. Un concepto interesante son los sistemas de tiempo real neutrales respecto a la plataforma de ejecución. Se caracterizan por la falta de conocimiento de esta plataforma durante su diseño. Esta propiedad es relevante, por que conviene que se ejecuten en la mayor variedad de arquitecturas, tienen una vida media mayor de diez anos y el lugar ˜ donde se ejecutan puede variar. El lenguaje de programación Java es una buena base para el desarrollo de este tipo de sistemas. Por este motivo se ha creado RTSJ (Real-Time Specification for Java), que es una extensión del lenguaje para permitir el desarrollo de sistemas de tiempo real. Sin embargo, RTSJ no proporciona facilidades para el desarrollo de aplicaciones distribuidas de tiempo real. Es una limitación importante dado que la mayoría de los actuales y futuros sistemas serán distribuidos. El grupo DRTSJ (DistributedRTSJ) fue creado bajo el proceso de la comunidad de Java (JSR-50) con el fin de definir las abstracciones que aborden dicha limitación, pero en la actualidad aun no existe una especificacion formal. El objetivo de esta tesis es desarrollar un middleware de comunicaciones para el desarrollo de sistemas distribuidos de tiempo real en Java, basado en la integración entre el modelo de RMI (Remote Method Invocation) y el perfil HRTJ. Ha sido diseñado e implementado teniendo en cuenta los requisitos principales, como la predecibilidad y la confiabilidad del comportamiento temporal y el uso de recursos. El diseño parte de la definición de un modelo computacional el cual identifica entre otras cosas: el modelo de comunicaciones, los protocolos de red subyacentes más adecuados, el modelo de análisis, y un subconjunto de Java para sistemas de tiempo real crítico. En el diseño, las referencias remotas son el medio básico para construcción de aplicaciones distribuidas las cuales son asociadas a todos los parámetros no funcionales y los recursos necesarios para la ejecución de invocaciones remotas síncronas o asíncronas con atributos de tiempo real. El middleware propuesto separa la asignación de recursos de la propia ejecución definiendo dos fases y un mecanismo de hebras especifico que garantiza un comportamiento temporal adecuado. Además se ha incluido mecanismos para supervisar el comportamiento funcional y temporal. Se ha buscado independencia del protocolo de red definiendo una interfaz de red y módulos específicos. También se ha modificado el protocolo JRMP para incluir diferentes fases, parámetros no funcionales y optimizaciones de los tamaños de los mensajes. Aunque la serialización es una de las operaciones fundamentales para asegurar la adecuada transmisión de datos, las actuales implementaciones no son adecuadas para sistemas críticos y no hay alternativas. Este trabajo propone una serialización predecible que ha implicado el desarrollo de un nuevo compilador para la generación de código optimizado acorde al modelo computacional. La solución propuesta tiene la ventaja que en tiempo de compilación nos permite planificar las comunicaciones y ajustar el uso de memoria. Con el objetivo de validar el diseño e implementación se ha llevado a cabo un exigente proceso de validación con énfasis en: el comportamiento funcional, el uso de memoria, el uso del procesador (tiempo de respuesta de extremo a extremo y en cada uno de los bloques funcionales) y el uso de la red (consumo real conforme al estimado). Los buenos resultados obtenidos en una aplicación industrial desarrollada por Thales Avionics (un sistema de gestión de vuelo) y en las pruebas exhaustivas han demostrado que el diseño y el prototipo son fiables para aplicaciones industriales con estrictos requisitos temporales.
Resumo:
Este trabajo tiene la vocación de dibujar el mapa de los dominios de oportunidad que hay a disposición de un arquitecto, al imaginar el aspecto sonoro de la ciudad en relación con la campana. Muchas de las dimensiones señaladas, tanto conocidas como desconocidas, son sencillamente despertadas al estudio de lo que un diseñador del espacio sonoro, como Llorenç Barber, viene a decirnos, desde una disciplina aparentemente contactada, pero muchas veces paralela a la arquitectónica. Tomando los conciertos de campanas celebrados hasta la fecha como puestas en práctica real de la condición instrumental de más de doscientas ciudades de todo el mundo, el estudio analiza los hallazgos, éxitos y fracasos, obtenidos a lo largo de estos últimos veinticinco años de experiencia, como resultados explícitos de un trabajo sonoro en la ciudad, probado, contrastado y afinado, del que extraer indicaciones concretas susceptibles de ser aplicadas en el diseño del espacio urbano. Mediante un análisis triangular de vértices definidos: emisor-campana, medio-ciudad, receptor-ciudadano; la investigación aborda los aspectos relativos a la producción y recepción del fenómeno sonoro generado por la campana en la ciudad. En relación con la producción, una parte del trabajo se dedica al estudio de los efectos acústicos observados, ordenado por escalas graduales en las que se produce una distribución del sonido susceptible de diseño: el vaso de la campana, la sala de campanas, el campanario, el cuerpo del edificio, la ciudad y el territorio. A modo de cajas de resonancia y leídas como muñecas rusas, unas dentro de otras, los espacios identificados muestran cualidades sonoras específicas, definidas tanto por sus condiciones geométricas, formales, constructivas o de uso; como por las correspondientes a las subsiguientes cajas que alojan. A fin de esclarecer la influencia de tales cuestiones en el aspecto sonoro de la ciudad, se propone un modelo ordenado de conexión y desconexión de escalas, utilizando una paramétrica puramente técnica creada ex profeso, junto con variables metodológicas más tradicionales. Al mismo tiempo, y tratando de esclarecer cómo, al ser puesta en vibración, la ciudad es aprehendida, disfrutada y rememorada por el ciudadano-oyente, otra parte del trabajo se dedica al estudio de los aspectos relativos a su recepción aural en deambulación compartida. En este caso la investigación se propone reclamar otras dimensiones más subversivas que, si bien escapan a los modos habituales de trabajar del arquitecto, se revelan intensamente en la experiencia plurifocal, multiplicando los efectos a considerar: efectos funcionales y significativos, de reconocimiento, integración y pertenencia a un cuerpo territorial y social de coordenadas históricas y geográficas de nuevo significadas; efectos perceptuales de inmersión, ubicuidad, temporalidad o inestabilidad; efectos estéticos, de rememoración, interpretación simbólica y recreación poética; e incluso efectos políticos, descubriendo un espacio urbano en continua regeneración, lugar para la exposición en su doble acepción, para la exhibición y el peligro, o como contenedor situacional del más profundo sentido ciudadano. Para afinar la relevancia de lo obtenido en cada una de las dimensiones señaladas, el trabajo se articula en tres aproximaciones graduales: el corpus general de los conciertos celebrados hasta la fecha; los conciertos celebrados en España; los tres conciertos para Madrid: Magna Mater (1991), Festi Clamores (2000) y Aurea Catena (2007). Si bien el modelo propuesto nace a la luz de los conciertos de campanas de Llorenç Barber, a escala de una ciudad entera y con una intención compositiva individual, se entiende que sería útil para el uso ordenado de cualquier profesional interesado en el aspecto sonoro de la ciudad, faceta escasamente atendida, dicho sea de paso, desde la disciplina arquitectónica. ABSTRACT This work has the vocation of drawing out the numerous opportunities an architect has at his disposal, upon imagining the sonorous aspect of the city in relation to the bell. Many of the dimensions indicated, both known and unknown, are just awakened to the study of what a sound space designer, as Llorenç Barber, comes to tell us, from a discipline apparently contacted, but often parallel to the architecture. Taking the bell concerts held so far as actual implementation of the instrumental condition of over two hundred cities around the world, the study analyzes the findings, successes and failures, obtained over the last twenty years of experience, as explicit results of a sound work in the city, tested, verified and refined, from which to extract specific indications that can be applied in the design of urban space. By triangular analyzing of defined vertices: sender-bell, half-city, receptor-citizen; the research addresses issues relating to the production and reception of sound phenomenon generated by the bell in the city. In relation to production, part of the work is devoted to the study of observed acoustic effects, ordered gradual scale which produces a distribution of sound capable of design: the glass of the bell, the bell room, the bell tower and the body of the building, the city and territory. By way of sounding boards and read as if they were Russian dolls, one inside the other, the show spaces identified specific sound qualities, defined both for their geometric, formal, constructive use, such as those for hosting the subsequent boxes. In order to clarify the influence of such issues in the sound aspect of the city, we propose an ordered pattern of connection and disconnection of scales, using a purely parametric technique created on purpose, along with more traditional methodological variables. At the same time, and trying to clarify how, when set in vibration, the city is apprehended, enjoyed and remembered for the citizen-listener, another part of the work is devoted to the study of aspects of aural reception in shared ambulation. In this case the research aims to claim more subversive than other dimensions, but beyond the usual ways in which an architect works, the experience reveals intensely plurifocal multiplying effects to consider: functional effects and significant recognition and integration belonging to a body of territorial and social historical and geographical coordinates of new meaning and perceptual effects of immersion, ubiquity, timeliness or instability; aesthetic effects of recall, interpretation and recreation of symbolic poetic; and even political effects, revealing a continuous urban space regeneration site for the exhibition in its double meaning, for display and danger, or as a citizen sense container. To sharpen the relevance of what was obtained in each of the dimensions mentioned, the work is divided into three incremental approaches: the general corpus of the concerts held so far, the concerts in Spain, the three concerts for Madrid: Magna Mater (1991), Festi Clamores (2000) and Aurea Catena (2007). While the proposed model comes in the light of the bells concert Llorenç Barber, the scale of a whole city and individual compositional intent, it is understood that it would be useful for the orderly use of any professional interested in the sound aspect of the city, an aspect sparsely attended, incidentally, from the architectural discipline.
Resumo:
El interés cada vez mayor por las redes de sensores inalámbricos pueden ser entendido simplemente pensando en lo que esencialmente son: un gran número de pequeños nodos sensores autoalimentados que recogen información o detectan eventos especiales y se comunican de manera inalámbrica, con el objetivo final de entregar sus datos procesados a una estación base. Los nodos sensores están densamente desplegados dentro del área de interés, se pueden desplegar al azar y tienen capacidad de cooperación. Por lo general, estos dispositivos son pequeños y de bajo costo, de modo que pueden ser producidos y desplegados en gran numero aunque sus recursos en términos de energía, memoria, velocidad de cálculo y ancho de banda están enormemente limitados. Detección, tratamiento y comunicación son tres elementos clave cuya combinación en un pequeño dispositivo permite lograr un gran número de aplicaciones. Las redes de sensores proporcionan oportunidades sin fin, pero al mismo tiempo plantean retos formidables, tales como lograr el máximo rendimiento de una energía que es escasa y por lo general un recurso no renovable. Sin embargo, los recientes avances en la integración a gran escala, integrado de hardware de computación, comunicaciones, y en general, la convergencia de la informática y las comunicaciones, están haciendo de esta tecnología emergente una realidad. Del mismo modo, los avances en la nanotecnología están empezando a hacer que todo gire entorno a las redes de pequeños sensores y actuadores distribuidos. Hay diferentes tipos de sensores tales como sensores de presión, acelerómetros, cámaras, sensores térmicos o un simple micrófono. Supervisan las condiciones presentes en diferentes lugares tales como la temperatura, humedad, el movimiento, la luminosidad, presión, composición del suelo, los niveles de ruido, la presencia o ausencia de ciertos tipos de objetos, los niveles de tensión mecánica sobre objetos adheridos y las características momentáneas tales como la velocidad , la dirección y el tamaño de un objeto, etc. Se comprobara el estado de las Redes Inalámbricas de Sensores y se revisaran los protocolos más famosos. Así mismo, se examinara la identificación por radiofrecuencia (RFID) ya que se está convirtiendo en algo actual y su presencia importante. La RFID tiene un papel crucial que desempeñar en el futuro en el mundo de los negocios y los individuos por igual. El impacto mundial que ha tenido la identificación sin cables está ejerciendo fuertes presiones en la tecnología RFID, los servicios de investigación y desarrollo, desarrollo de normas, el cumplimiento de la seguridad y la privacidad y muchos más. Su potencial económico se ha demostrado en algunos países mientras que otros están simplemente en etapas de planificación o en etapas piloto, pero aun tiene que afianzarse o desarrollarse a través de la modernización de los modelos de negocio y aplicaciones para poder tener un mayor impacto en la sociedad. Las posibles aplicaciones de redes de sensores son de interés para la mayoría de campos. La monitorización ambiental, la guerra, la educación infantil, la vigilancia, la micro-cirugía y la agricultura son solo unos pocos ejemplos de los muchísimos campos en los que tienen cabida las redes mencionadas anteriormente. Estados Unidos de América es probablemente el país que más ha investigado en esta área por lo que veremos muchas soluciones propuestas provenientes de ese país. Universidades como Berkeley, UCLA (Universidad de California, Los Ángeles) Harvard y empresas como Intel lideran dichas investigaciones. Pero no solo EE.UU. usa e investiga las redes de sensores inalámbricos. La Universidad de Southampton, por ejemplo, está desarrollando una tecnología para monitorear el comportamiento de los glaciares mediante redes de sensores que contribuyen a la investigación fundamental en glaciología y de las redes de sensores inalámbricos. Así mismo, Coalesenses GmbH (Alemania) y Zurich ETH están trabajando en diversas aplicaciones para redes de sensores inalámbricos en numerosas áreas. Una solución española será la elegida para ser examinada más a fondo por ser innovadora, adaptable y polivalente. Este estudio del sensor se ha centrado principalmente en aplicaciones de tráfico, pero no se puede olvidar la lista de más de 50 aplicaciones diferentes que ha sido publicada por la firma creadora de este sensor específico. En la actualidad hay muchas tecnologías de vigilancia de vehículos, incluidos los sensores de bucle, cámaras de video, sensores de imagen, sensores infrarrojos, radares de microondas, GPS, etc. El rendimiento es aceptable, pero no suficiente, debido a su limitada cobertura y caros costos de implementación y mantenimiento, especialmente este ultimo. Tienen defectos tales como: línea de visión, baja exactitud, dependen mucho del ambiente y del clima, no se puede realizar trabajos de mantenimiento sin interrumpir las mediciones, la noche puede condicionar muchos de ellos, tienen altos costos de instalación y mantenimiento, etc. Por consiguiente, en las aplicaciones reales de circulación, los datos recibidos son insuficientes o malos en términos de tiempo real debido al escaso número de detectores y su costo. Con el aumento de vehículos en las redes viales urbanas las tecnologías de detección de vehículos se enfrentan a nuevas exigencias. Las redes de sensores inalámbricos son actualmente una de las tecnologías más avanzadas y una revolución en la detección de información remota y en las aplicaciones de recogida. Las perspectivas de aplicación en el sistema inteligente de transporte son muy amplias. Con este fin se ha desarrollado un programa de localización de objetivos y recuento utilizando una red de sensores binarios. Esto permite que el sensor necesite mucha menos energía durante la transmisión de información y que los dispositivos sean más independientes con el fin de tener un mejor control de tráfico. La aplicación se centra en la eficacia de la colaboración de los sensores en el seguimiento más que en los protocolos de comunicación utilizados por los nodos sensores. Las operaciones de salida y retorno en las vacaciones son un buen ejemplo de por qué es necesario llevar la cuenta de los coches en las carreteras. Para ello se ha desarrollado una simulación en Matlab con el objetivo localizar objetivos y contarlos con una red de sensores binarios. Dicho programa se podría implementar en el sensor que Libelium, la empresa creadora del sensor que se examinara concienzudamente, ha desarrollado. Esto permitiría que el aparato necesitase mucha menos energía durante la transmisión de información y los dispositivos sean más independientes. Los prometedores resultados obtenidos indican que los sensores de proximidad binarios pueden formar la base de una arquitectura robusta para la vigilancia de áreas amplias y para el seguimiento de objetivos. Cuando el movimiento de dichos objetivos es suficientemente suave, no tiene cambios bruscos de trayectoria, el algoritmo ClusterTrack proporciona un rendimiento excelente en términos de identificación y seguimiento de trayectorias los objetos designados como blancos. Este algoritmo podría, por supuesto, ser utilizado para numerosas aplicaciones y se podría seguir esta línea de trabajo para futuras investigaciones. No es sorprendente que las redes de sensores de binarios de proximidad hayan atraído mucha atención últimamente ya que, a pesar de la información mínima de un sensor de proximidad binario proporciona, las redes de este tipo pueden realizar un seguimiento de todo tipo de objetivos con la precisión suficiente. Abstract The increasing interest in wireless sensor networks can be promptly understood simply by thinking about what they essentially are: a large number of small sensing self-powered nodes which gather information or detect special events and communicate in a wireless fashion, with the end goal of handing their processed data to a base station. The sensor nodes are densely deployed inside the phenomenon, they deploy random and have cooperative capabilities. Usually these devices are small and inexpensive, so that they can be produced and deployed in large numbers, and so their resources in terms of energy, memory, computational speed and bandwidth are severely constrained. Sensing, processing and communication are three key elements whose combination in one tiny device gives rise to a vast number of applications. Sensor networks provide endless opportunities, but at the same time pose formidable challenges, such as the fact that energy is a scarce and usually non-renewable resource. However, recent advances in low power Very Large Scale Integration, embedded computing, communication hardware, and in general, the convergence of computing and communications, are making this emerging technology a reality. Likewise, advances in nanotechnology and Micro Electro-Mechanical Systems are pushing toward networks of tiny distributed sensors and actuators. There are different sensors such as pressure, accelerometer, camera, thermal, and microphone. They monitor conditions at different locations, such as temperature, humidity, vehicular movement, lightning condition, pressure, soil makeup, noise levels, the presence or absence of certain kinds of objects, mechanical stress levels on attached objects, the current characteristics such as speed, direction and size of an object, etc. The state of Wireless Sensor Networks will be checked and the most famous protocols reviewed. As Radio Frequency Identification (RFID) is becoming extremely present and important nowadays, it will be examined as well. RFID has a crucial role to play in business and for individuals alike going forward. The impact of ‘wireless’ identification is exerting strong pressures in RFID technology and services research and development, standards development, security compliance and privacy, and many more. The economic value is proven in some countries while others are just on the verge of planning or in pilot stages, but the wider spread of usage has yet to take hold or unfold through the modernisation of business models and applications. Possible applications of sensor networks are of interest to the most diverse fields. Environmental monitoring, warfare, child education, surveillance, micro-surgery, and agriculture are only a few examples. Some real hardware applications in the United States of America will be checked as it is probably the country that has investigated most in this area. Universities like Berkeley, UCLA (University of California, Los Angeles) Harvard and enterprises such as Intel are leading those investigations. But not just USA has been using and investigating wireless sensor networks. University of Southampton e.g. is to develop technology to monitor glacier behaviour using sensor networks contributing to fundamental research in glaciology and wireless sensor networks. Coalesenses GmbH (Germany) and ETH Zurich are working in applying wireless sensor networks in many different areas too. A Spanish solution will be the one examined more thoroughly for being innovative, adaptable and multipurpose. This study of the sensor has been focused mainly to traffic applications but it cannot be forgotten the more than 50 different application compilation that has been published by this specific sensor’s firm. Currently there are many vehicle surveillance technologies including loop sensors, video cameras, image sensors, infrared sensors, microwave radar, GPS, etc. The performance is acceptable but not sufficient because of their limited coverage and expensive costs of implementation and maintenance, specially the last one. They have defects such as: line-ofsight, low exactness, depending on environment and weather, cannot perform no-stop work whether daytime or night, high costs for installation and maintenance, etc. Consequently, in actual traffic applications the received data is insufficient or bad in terms of real-time owed to detector quantity and cost. With the increase of vehicle in urban road networks, the vehicle detection technologies are confronted with new requirements. Wireless sensor network is the state of the art technology and a revolution in remote information sensing and collection applications. It has broad prospect of application in intelligent transportation system. An application for target tracking and counting using a network of binary sensors has been developed. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices in order to have a better traffic control. The application is focused on the efficacy of collaborative tracking rather than on the communication protocols used by the sensor nodes. Holiday crowds are a good case in which it is necessary to keep count of the cars on the roads. To this end a Matlab simulation has been produced for target tracking and counting using a network of binary sensors that e.g. could be implemented in Libelium’s solution. Libelium is the enterprise that has developed the sensor that will be deeply examined. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices. The promising results obtained indicate that binary proximity sensors can form the basis for a robust architecture for wide area surveillance and tracking. When the target paths are smooth enough ClusterTrack particle filter algorithm gives excellent performance in terms of identifying and tracking different target trajectories. This algorithm could, of course, be used for different applications and that could be done in future researches. It is not surprising that binary proximity sensor networks have attracted a lot of attention lately. Despite the minimal information a binary proximity sensor provides, networks of these sensing modalities can track all kinds of different targets classes accurate enough.
Resumo:
En este trabajo se revisan conceptos y nociones básicas relacionadas con el paralelismo y se analiza tanto su relación con la Inteligencia Artificial, como las diferentes alternativas de aplicación en el desarrollo de sistemas inteligentes. En primer lugar se argumenta que los procesos típicos de la inteligencia artificial ofrecen posibilidades de explotación de paralelismo, siendo esta explotación una opción muy útil a la hora de incrementar la capacidad y efectividad de los sistemas inteligentes, contrarrestando así el alto coste computacional de los mismos. En segundo lugar se presentan resultados esperanzadores, en el sentido de que la hasta ahora ardua tarea de paralelizar un sistema pueda ser, al menos en parte, realizada automáticamente mediante un análisis en tiempo de compilación del programa que implementa dicho sistema. Para ello se presenta el estudio de un sistema real de paralelización automática de programas lógicos basado en el modelo de paralelismo-And independiente.
Resumo:
Dentro de los paradigmas de programación en el mundo de la informática tenemos la "Programación Lógica'', cuyo principal exponente es el lenguaje Prolog. Los programas Prolog se componen de un conjunto de predicados, cada uno de ellos definido en base a reglas que aportan un elevado nivel de abstracción y declaratividad al programador. Sin embargo, las formulación con reglas implica, frecuentemente, que un predicado se recompute varias veces para la misma consulta y además, Prolog utiliza un orden fijo para evaluar reglas y objetivos (evaluación SLD) que puede entrar en "bucles infinitos'' cuando ejecuta reglas recursivas declarativamente correctas. Estas limitaciones son atacadas de raiz por la tabulación, que se basa en "recordar'' en una tabla las llamadas realizadas y sus soluciones. Así, en caso de repetir una llamada tendríamos ya disponibles sus soluciones y evitamos la recomputación. También evita "bucles infinitos'' ya que las llamadas que los generan son suspendidas, quedando a la espera de que se computen soluciones para las mismas. La implementación de la tabulación no es sencilla. En particular, necesita de tres operaciones que no pueden ser ejecutadas en tiempo constante simultáneamente. Dichas operaciones son: suspensión de llamadas, relanzamiento de llamadas y {acceso a variables. La primera parte de la tesis compara tres implementaciones de tabulación sobre Ciao, cada una de las cuales penaliza una de estas operaciones. Por tanto, cada solución tiene sus ventajas y sus inconvenientes y se comportan mejor o peor dependiendo del programa ejecutado. La segunda parte de la tesis mejora la funcionalidad de la tabulación para combinarla con restricciones y también para evitar computaciones innecesarias. La programación con restricciones permite la resolución de ecuaciones como medio de programar, mecanismo altamente declarativo. Hemos desarrollado un framework para combinar la tabulación con las restricciones, priorizando objetivos como la flexibilidad, la eficiencia y la generalidad de nuestra solución, obteniendo una sinergia entre ambas técnicas que puede ser aplicada en numerosas aplicaciones. Por otra parte, un aspecto fundamental de la tabulación hace referencia al momento en que se retornan las soluciones de una llamada tabulada. Local evaluation devuelve soluciones cuando todas las soluciones de la llamada tabulada han sido computadas. Por contra, batched evaluation devuelve las soluciones una a una conforme van siendo computadas, por lo que se adapta mejor a problemas donde no nos interesa encontrar todas las soluciones. Sin embargo, su consumo de memoria es exponencialmente peor que el de local evaluation. La tesis presenta swapping evaluation, que devuelve soluciones tan pronto como son computadas pero con un consumo de memoria similar a la de local evaluation. Además, se implementan operadores de poda, once/1, para descartar la búsqueda de soluciones alternativas cuando encontramos la solución deseada. Por último, Prolog adopta con relativa facilidad soluciones para paralelismo gracias a su flexibilidad en el control de la ejecución y a que sus asignaciones son lógicas. La tercera parte de la tesis extiende el paralelismo conjuntivo de Ciao para trabajar con programas no deterministas, lo que presenta dos problemas principales: los objetivos atrapados y la recomputación de objetivos. Las soluciones clásicas para los objetivos atrapados rompían muchos invariantes de la ejecución Prolog, siendo soluciones difíciles de mantener y de extender, que la experiencia nos dice que han caído en desuso. Nosotros proponemos una solución modular (basada en la implementación de swapping evaluation), localizada y que no rompe los invariantes de la ejecución Prolog, pero que mantiene un alto rendimiento de la ejecución paralela. En referencia a la recomputación de objetivos paralelos en presencia de no determinismo hemos adaptado ténicas derivadas de la tabulación para memorizar computaciones de estos objetivos y evitar su recomputación.
Resumo:
La tesis se articula en tres capítulos, estructurados siguiendo un proceso de extensión espacio temporal paralelo al que incumbe al cuerpo propio, entendiendo por tanto la fachada, es decir el rostro de la arquitectura (facies), como proyección directa de nuestra exterioridad y punto de registro de las alteraciones que afectan tanto a nuestra corporeidad como al objeto arquitectónico y al paisaje natural y urbano contemporáneo. El cuerpo, su esqueleto, su piel, su rostro, y las diferentes máscaras que filtran su relación con el mundo, se convierten en la clave para una lectura interdisciplinar de las mutaciones que se registran en las fronteras arquitectónicas. La extensión espacio temporal del cuerpo es el punto de partida de la investigación y la estructura misma de la tesis que se desarrolla con el siguiente criterio: la fachada en relación con el rostro y el cuerpo propio (relación: cuerpo arquitectura, rostro- fachada); la fachada en relación con el edificio; su separación y autonomía formal, estructural y comunicativa (relación: piel esqueleto; estructura revestimiento). la fachada con respecto al nuevo paisaje natural y urbano (rostro paisaje; fachada nueva ecología, en un contexto de hibridación tecnológica y artificialización del mundo). En el primer capítulo partimos portante del cuerpo propio, entendiendo que las diferentes formas, fachadas o rostros que vestidos, cosas y casas adquieren en el tiempo, son proyecciones directas de nuestra exterioridad en un proceso de extensión espacio temporal que es también un proceso de significación. Como ya avisaba Ortega, todas las extensiones del hombre, es decir los productos de la técnica y de la industria que el hombre construye para adaptarse a diferentes condiciones de vida, se convierten en instrumentos para clasificar socialmente una persona, y son por tanto máscaras o "estilos" que revelan las épocas correspondientes. Por La máscara y sus diferentes connotaciones se convierten en medios para analizar un proceso que nos sitúa finalmente en la "máscara electrónica", es decir una piel híbrida, mejorada y extendida hasta los límites propios del mundo, que responde a los cambios impuestos por la moda y a los devenires cada vez más acelerados. En el segundo capítulo nos situamos en la piel del objeto arquitectónico y en su proceso de desvinculación formal, estructural y comunicativo de la estructura, en un debate abierto con diferentes connotaciones entre revelar y enmascarar El proceso pasa por diferentes momentos históricos, destacando: el Renacimiento, como momento en el que se forja el término fachada, como resultado de una determinada manera de entender la representación arquitectónica, social y urbana; la Revolución Industrial, por la introducción de los nuevos materiales y sistemas de producción y consumo que se materializan en las Grandes Exposiciones Universales; finalmente la Posmodernidad, como momento en el que se forjan las bases de la "superficialidad posmoderna", como Jameson la define, desde el presupuesto de una necesidad de símbolos y significados que justifica las actitudes formales propias del final del siglo XX y las alteraciones en el límite que se perfilan en el nuevo milenio. En el tercer capítulo se investigan las consecuencias de esta desvinculación a nivel del paisaje natural y urbano, en una perspectiva de hibridación planetaria que pone en cuestión las clasificaciones tradicionales. La fachada es finalmente interfaz, término de raíz informática, que indica en sí mismo las alteraciones que afectan al límite, convertido en lugar, membrana osmótica y filtro de informaciones. La interfaz es una máscara pues, como la definición indica, remite al intercambio de información pero no al proceso que dicho intercambio determina El límite es por tanto un lugar, una entidad ensanchada e indeterminada en la que ocurren intercambios e interacciones que sólo se revelan a pocos selectos y que tienen en definitiva que quedar ocultas. En este lugar nos situamos para analizar las alteraciones contemporáneas que afectan a nuestras ciudades, objeto, como la piel del cuerpo propio, de la colonización despiadada del consumo de masa y de la tecnología electrónica. Por un lado el fascinante mundo interconectado y fluido de las redes y por otro lado ciudades cada vez más fragmentadas en las que los límites se multiplican, obligando a situamos con nuevas actitudes frente a un paisaje y a una naturaleza controlados con diferentes grados de manipulación. Si la fachada en su acepción tradicional suponía una actitud de continuidad urbana y de respecto de reglas compositivas determinadas, la piel es un territorio más abierto y flexible, que puede ser camuflado, enmascarado, desmaterializado con diferentes estrategias que son en definitiva respuestas a la dilatación y proliferación de los límites y a las necesidades de una sociedad en la que predomina el control en todas sus acepciones. La fachada tradicional aislaba, protegía y filtraba prudentemente las relaciones entre la esfera pública y la privada, al tiempo que revelaba el estatus y el rol de cada edificio en su contexto. La anulación de la fachada en la modernidad, tanto a nivel del objeto arquitectónico como de la ciudad misma, supone una actitud de rechazo frente a la máscara y la contraposición edificio - paisaje como entidades autónomas. El artefacto arquitectónico se concibe como objeto aislado y la propia ciudad crece de manera exacerbada anulando el sentido de la fachada tradicional. Hoy la sustitución de la fachada por la interfaz no deriva de una actitud moralista, pues la ética ha sido anulada por una estetización que ocupa todos los niveles de la sociedad y de la vida. Asumimos que la máscara, como ya decía Semper, siempre es necesaria, pero si la fachada era máscara social, la interfaz es una máscara electrónica, piel híbrida capaz de ser infinitamente colonizada y de responder a las exigencias de cambio que impone el mundo en el que vivimos. El campo de investigación queda abierto, perfilándose la posibilidad de imaginar una arquitectura menos preocupada por efectos formales y espectaculares, y más centrada hacia las posibilidades que ofrece la electrónica en su aplicación a la arquitectura como respuesta a las exigencias del hombre contemporáneo.
Resumo:
La diabetes mellitus es un trastorno del metabolismo de los carbohidratos producido por la insuficiente o nula producción de insulina o la reducida sensibilidad a esta hormona. Es una enfermedad crónica con una mayor prevalencia en los países desarrollados debido principalmente a la obesidad, la vida sedentaria y disfunciones en el sistema endocrino relacionado con el páncreas. La diabetes Tipo 1 es una enfermedad autoinmune en la que son destruidas las células beta del páncreas, que producen la insulina, y es necesaria la administración de insulina exógena. Un enfermo de diabetes Tipo 1 debe seguir una terapia con insulina administrada por la vía subcutánea que debe estar adaptada a sus necesidades metabólicas y a sus hábitos de vida, esta terapia intenta imitar el perfil insulínico de un páncreas no patológico. La tecnología actual permite abordar el desarrollo del denominado “páncreas endocrino artificial”, que aportaría precisión, eficacia y seguridad para los pacientes, en cuanto a la normalización del control glucémico y reducción del riesgo de hipoglucemias. Permitiría que el paciente no estuviera tan pendiente de su enfermedad. El páncreas artificial consta de un sensor continuo de glucosa, una bomba de infusión de insulina y un algoritmo de control, que calcula la insulina a infusionar usando la glucosa como información principal. Este trabajo presenta un método de control en lazo semi-cerrado mediante un sistema borroso experto basado en reglas. La regulación borrosa se fundamenta en la ambigüedad del lenguaje del ser humano. Esta incertidumbre sirve para la formación de una serie de reglas que representan el pensamiento humano, pero a la vez es el sistema que controla un proceso, en este caso el sistema glucorregulatorio. Este proyecto está enfocado en el diseño de un controlador borroso que haciendo uso de variables como la glucosa, insulina y dieta, sea capaz de restaurar la función endocrina del páncreas de forma tecnológica. La validación del algoritmo se ha realizado principalmente mediante experimentos en simulación utilizando una población de pacientes sintéticos, evaluando los resultados con estadísticos de primer orden y algunos más específicos como el índice de riesgo de Kovatchev, para después comparar estos resultados con los obtenidos por otros métodos de control anteriores. Los resultados demuestran que el control borroso (FBPC) mejora el control glucémico con respecto a un sistema predictivo experto basado en reglas booleanas (pBRES). El FBPC consigue reducir siempre la glucosa máxima y aumentar la mínima respecto del pBRES pero es en terapias desajustadas, donde el FBPC es especialmente robusto, hace descender la glucosa máxima 8,64 mg/dl, el uso de insulina es 3,92 UI menor, aumenta la glucosa mínima 3,32 mg/dl y lleva al rango de glucosa 80 – 110 mg/dl 15,33 muestras más. Por lo tanto se puede concluir que el FBPC realiza un mejor control glucémico que el controlador pBRES haciéndole especialmente efectivo, robusto y seguro en condiciones de desajustes de terapia basal y con gran capacidad de mejora futura. SUMMARY The diabetes mellitus is a metabolic disorder caused by a poor or null insulin secretion or a reduced sensibility to insulin. Diabetes is a chronic disease with a higher prevalence in the industrialized countries, mainly due to obesity, the sedentary life and endocrine disfunctions connected with the pancreas. Type 1 diabetes is a self-immune disease where the beta cells of the pancreas, which are the responsible of secreting insulin, are damaged. Hence, it is necessary an exogenous delivery of insulin. The Type 1 diabetic patient has to follow a therapy with subcutaneous insulin administration which should be adjusted to his/her metabolic needs and life style. This therapy tries to mimic the insulin profile of a non-pathological pancreas. Current technology lets the development of the so-called endocrine artificial pancreas that would provide accuracy, efficiency and safety to patients, in regards to the glycemic control normalization and reduction of the risk of hypoglycemic. In addition, it would help the patient not to be so concerned about his disease. The artificial pancreas has a continuous glucose sensor, an insulin infusion pump and a control algorithm, that calculates the insulin infusion using the glucose as main information. This project presents a method of control in semi-closed-loop, through an expert fuzzy system based on rules. The fuzzy regulation is based on the human language ambiguity. This uncertainty serves for construction of some rules that represent the human language besides it is the system that controls a process, in this case the glucoregulatory system. This project is focus on the design of a fuzzy controller that, using variables like glucose insulin and diet, will be able to restore the pancreas endocrine function with technology. The algorithm assessment has mainly been done through experiments in simulation using a population of synthetic patients, evaluating the results with first order statistical parameters and some other more specific such as the Kovatchev risk index, to compare later these results with the ones obtained in others previous methods of control. The results demonstrate that the fuzzy control (FBPC) improves the glycemic control connected with a predictive expert system based on Booleans rules (pBRES). The FBPC is always able to reduce the maximum level of glucose and increase the minimum level as compared with pBRES but it is in unadjusted therapies where FBPC is especially strong, it manages to decrease the maximum level of glucose and insulin used by 8,64 mg/dl and 3,92 UI respectively, also increases the value of minimum glucose by 3,32 mg/dl, getting 15,33 samples more inside the 80-110 mg/dl glucose rank. Therefore we can conclude that FBPC achieves a better glycemic control than the controller pBRES doing it especially effective, robust and safe in conditions of mismatch basal therapy and with a great capacity for future improvements.
Resumo:
Este proyecto surge de la búsqueda de un campo de aplicación de las Redes de Sensores Inalámbricos, WSN, aplicadas a la vida cotidiana. Dicha aplicación consistirá en un sistema de gestión de alumbrado público a través del cual se buscará una reducción del consumo energético y del gasto económico, así como una gestión en tiempo de real de la operativa del alumbrado. Para ello se desarrollará un sistema basado en nodos instalados en farolas, los cuales se comunicarán entre sí para funcionar de la forma más optimizada posible, complementándose todo ello con un “nodo base”, que se encargará de servir de nexo entre la red y los diferentes elementos necesarios para la configuración de los nodos y la recogida de información. Esta información servirá para que una página web pueda mostrar al usuario final toda la información necesaria para tener un control sobre el estado actual de funcionamiento de cada una de las farolas, control del consumo, así como detección de averías. En este proyecto se describen las tecnologías actuales relacionadas con el campo de las WSN y los sensores, presentando aplicaciones que en la actualidad se encuentran desplegadas. Se expone también una propuesta real de despliegue presentada al Ayuntamiento de una localidad, Pedro Muñoz, para implementar un proyecto piloto en varias de sus calles. Se describe el entorno, tanto hardware como software, explicando los algoritmos utilizados para las asociaciones entre nodos, diagramas de funcionamiento en las distintas fases de la que está compuesta la operativa de los nodos, la codificación de los programas que se necesitan ejecutar para el correcto funcionamiento del sistema. Por último, debido a que el campo de las WSN está en constante evolución, se presentarán diversas ideas para implementar diversas mejoras que pudieran ser desplegadas en un futuro, ampliando la oferta de aplicaciones a ofrecer al usuario final. ABSTRACT. This project results from the development for an application field of wireless Sensor Networks (WSN), applied to daily life. That application will consist of a system of street lighting management, through which it will seek a reduction in energy consumption and economic cost, and a real-time management of the operative of the street lighting. To do this, a system based on nodes installed in streetlights will be developed. These nodes will communicate with each other to operate in the most optimized way possible, complementing all with a Base-station, which will act as a link between the network and the components required for configuring the nodes and collecting data from them. This information will help a website to show the end user all the information needed to have a control on the current operating status of each of the streetlights, consumption control and troubleshooting. To this end, this project will describe the current technologies related to the field of WSN and sensors, presenting applications that are currently deployed. It will be also exposed a real proposal submitted to a city council to deploy a pilot project in many of its streets. Will be described the environment, both hardware and software, explaining the algorithms used for the associations between nodes, operating diagrams in the different phases of the nodes operation, and the coding of programs that are needed for proper system performance. Finally, because the field of WSN is in constant evolution, will be presented different ideas to implement various improvements which could be deployed in the future, extending the range of applications to provide to end-users.
Resumo:
En el presente Trabajo de Fin de Grado se abordan diferentes aspectos del diseño, implementación y vericación de un sistema de tiempo real de características especiales, el satélite UPMSat-2. Este proyecto, llevado a cabo por un grupo de trabajo formado por profesores, alumnos y personal de la Universidad Politecnica de Madrid (UPM), tiene como objetivo el desarrollo de un microsatélite como plataforma de demostración tecnológica en órbita. Parte de este grupo de trabajo es el Grupo de Sistemas de Tiempo Real y Arquitectura de Servicios Telemáticos (STRAST), del cual el alumno forma parte y que tiene a cargo el diseño e implementación tanto del software de abordo como del software de tierra. Dentro de estas asignaciones, el alumno ha trabajado en tres aspectos principales: el diseño e implementación de diferentes manejadores de dispositivos, el diseño de un algoritmo para la gestión de la memoria no volátil y la configuración y prueba de un sistema de validación de software para un subsistema del satélite. Tanto la memoria de estas tareas como las bases y fundamentos tecnológicos aplicados se desarrollan en el documento. ------------------------------------------------ ----------------------------------------------------------------------------------- Diferent aspects of the design, implementation and validation of an specific Real Time System, the UPMSat-2 satellite, are described in this final report. UPMSat-2 project is aimed at developing an experimental microsatellite that can be used as a technology demonstrator for several research groups at UPM. The Real-Time Systems Group at UPM (STRAST) is responsible for designing and building all the on-board and ground-segment software for the satellite. In relation to this, three main task have been carried out and are described in this document: the design and implementation of three diferent device drivers, the design of an algorithm to manage the nonvolatile memory and the configuration and test of a software validation facility to test the UPMSat-2 Attitude Determination and Control System (ADCS) subsystem. Detailed information of these tasks and their technological basis are presented in the rest of the document.
Resumo:
Los avances en el hardware permiten disponer de grandes volúmenes de datos, surgiendo aplicaciones que deben suministrar información en tiempo cuasi-real, la monitorización de pacientes, ej., el seguimiento sanitario de las conducciones de agua, etc. Las necesidades de estas aplicaciones hacen emerger el modelo de flujo de datos (data streaming) frente al modelo almacenar-para-despuésprocesar (store-then-process). Mientras que en el modelo store-then-process, los datos son almacenados para ser posteriormente consultados; en los sistemas de streaming, los datos son procesados a su llegada al sistema, produciendo respuestas continuas sin llegar a almacenarse. Esta nueva visión impone desafíos para el procesamiento de datos al vuelo: 1) las respuestas deben producirse de manera continua cada vez que nuevos datos llegan al sistema; 2) los datos son accedidos solo una vez y, generalmente, no son almacenados en su totalidad; y 3) el tiempo de procesamiento por dato para producir una respuesta debe ser bajo. Aunque existen dos modelos para el cómputo de respuestas continuas, el modelo evolutivo y el de ventana deslizante; éste segundo se ajusta mejor en ciertas aplicaciones al considerar únicamente los datos recibidos más recientemente, en lugar de todo el histórico de datos. En los últimos años, la minería de datos en streaming se ha centrado en el modelo evolutivo. Mientras que, en el modelo de ventana deslizante, el trabajo presentado es más reducido ya que estos algoritmos no sólo deben de ser incrementales si no que deben borrar la información que caduca por el deslizamiento de la ventana manteniendo los anteriores tres desafíos. Una de las tareas fundamentales en minería de datos es la búsqueda de agrupaciones donde, dado un conjunto de datos, el objetivo es encontrar grupos representativos, de manera que se tenga una descripción sintética del conjunto. Estas agrupaciones son fundamentales en aplicaciones como la detección de intrusos en la red o la segmentación de clientes en el marketing y la publicidad. Debido a las cantidades masivas de datos que deben procesarse en este tipo de aplicaciones (millones de eventos por segundo), las soluciones centralizadas puede ser incapaz de hacer frente a las restricciones de tiempo de procesamiento, por lo que deben recurrir a descartar datos durante los picos de carga. Para evitar esta perdida de datos, se impone el procesamiento distribuido de streams, en concreto, los algoritmos de agrupamiento deben ser adaptados para este tipo de entornos, en los que los datos están distribuidos. En streaming, la investigación no solo se centra en el diseño para tareas generales, como la agrupación, sino también en la búsqueda de nuevos enfoques que se adapten mejor a escenarios particulares. Como ejemplo, un mecanismo de agrupación ad-hoc resulta ser más adecuado para la defensa contra la denegación de servicio distribuida (Distributed Denial of Services, DDoS) que el problema tradicional de k-medias. En esta tesis se pretende contribuir en el problema agrupamiento en streaming tanto en entornos centralizados y distribuidos. Hemos diseñado un algoritmo centralizado de clustering mostrando las capacidades para descubrir agrupaciones de alta calidad en bajo tiempo frente a otras soluciones del estado del arte, en una amplia evaluación. Además, se ha trabajado sobre una estructura que reduce notablemente el espacio de memoria necesario, controlando, en todo momento, el error de los cómputos. Nuestro trabajo también proporciona dos protocolos de distribución del cómputo de agrupaciones. Se han analizado dos características fundamentales: el impacto sobre la calidad del clustering al realizar el cómputo distribuido y las condiciones necesarias para la reducción del tiempo de procesamiento frente a la solución centralizada. Finalmente, hemos desarrollado un entorno para la detección de ataques DDoS basado en agrupaciones. En este último caso, se ha caracterizado el tipo de ataques detectados y se ha desarrollado una evaluación sobre la eficiencia y eficacia de la mitigación del impacto del ataque. ABSTRACT Advances in hardware allow to collect huge volumes of data emerging applications that must provide information in near-real time, e.g., patient monitoring, health monitoring of water pipes, etc. The data streaming model emerges to comply with these applications overcoming the traditional store-then-process model. With the store-then-process model, data is stored before being consulted; while, in streaming, data are processed on the fly producing continuous responses. The challenges of streaming for processing data on the fly are the following: 1) responses must be produced continuously whenever new data arrives in the system; 2) data is accessed only once and is generally not maintained in its entirety, and 3) data processing time to produce a response should be low. Two models exist to compute continuous responses: the evolving model and the sliding window model; the latter fits best with applications must be computed over the most recently data rather than all the previous data. In recent years, research in the context of data stream mining has focused mainly on the evolving model. In the sliding window model, the work presented is smaller since these algorithms must be incremental and they must delete the information which expires when the window slides. Clustering is one of the fundamental techniques of data mining and is used to analyze data sets in order to find representative groups that provide a concise description of the data being processed. Clustering is critical in applications such as network intrusion detection or customer segmentation in marketing and advertising. Due to the huge amount of data that must be processed by such applications (up to millions of events per second), centralized solutions are usually unable to cope with timing restrictions and recur to shedding techniques where data is discarded during load peaks. To avoid discarding of data, processing of streams (such as clustering) must be distributed and adapted to environments where information is distributed. In streaming, research does not only focus on designing for general tasks, such as clustering, but also in finding new approaches that fit bests with particular scenarios. As an example, an ad-hoc grouping mechanism turns out to be more adequate than k-means for defense against Distributed Denial of Service (DDoS). This thesis contributes to the data stream mining clustering technique both for centralized and distributed environments. We present a centralized clustering algorithm showing capabilities to discover clusters of high quality in low time and we provide a comparison with existing state of the art solutions. We have worked on a data structure that significantly reduces memory requirements while controlling the error of the clusters statistics. We also provide two distributed clustering protocols. We focus on the analysis of two key features: the impact on the clustering quality when computation is distributed and the requirements for reducing the processing time compared to the centralized solution. Finally, with respect to ad-hoc grouping techniques, we have developed a DDoS detection framework based on clustering.We have characterized the attacks detected and we have evaluated the efficiency and effectiveness of mitigating the attack impact.
Resumo:
En los últimos años, el desarrollo industrial a nivel globalizado en los diferentes sectores, la difusión de la TI y el uso estratégico de la misma, han crecido de manera exponencial. El uso adecuado de esta, se ha convertido en una gran preocupación para los órganos de gobierno de las organizaciones ya que la falta de dirección y control en las inversiones que se realizan en ellas, así como un uso inadecuado de las mismas pueden comprometer la consecución de los objetivos de la organización, su competitividad y su sostenibilidad a medio-largo plazo. La preocupación de los propietarios de los negocios es mejorar su rendimiento con la ayuda de la TI frente a sus competidores, realizando los procesos de negocio de una manera eficaz y eficiente, por lo que muchas organizaciones han realizado inversiones importantes en la adquisición de tecnología para lograr sus propósitos. Sin embargo la ejecución de estas inversiones no se ha gestionado adecuadamente, conforme a las políticas y planes especificados en los planes de negocio de la organización y la entrega de los servicios de TI no ha sido conforme a los objetivos previstos, generando pérdidas importantes y lo que es peor un gran deterioro de la imagen de la organización, por lo que consideramos a la gestión de la demanda estratégica de la TI como uno de los factores claves para el éxito de los negocios, el cual no ha sido tomada en cuenta por los consejos de gobierno o los altos ejecutivos de las organizaciones. La investigación comienza con una amplia revisión de la literatura, identificando dos elementos muy importantes, la demanda y el suministro de la TI dentro de la gobernanza corporativa de la TI; notándose la escasa información relacionado con la gestión de la demanda estratégica de la TI. Se realizó un estudio exploratorio para conocer como los miembros del consejo de administración y altos ejecutivos de una organización gestionan la demanda estratégica de la TI, obteniendo una respuesta de 130 encuestados, donde se confirma que hace falta normas o metodologías para la gestión de la demanda estratégica de la TI. En base a estos resultados se ha construido un marco de trabajo para todo el proceso de la gestión de la demanda de la TI y como una solución que se plantea en esta tesis doctoral, consiste en la elaboración de una metodología, combinando e integrando marcos de trabajo y estándares relacionados con la gobernanza corporativa de la TI. La metodología propuesta está conformada por tres fases, cada fase con sus actividades principales, y cada actividad principal por un conjunto de sub-actividades. Además, se establecen los roles y responsabilidades de los altos ejecutivos para cada una de las actividades principales. Esta propuesta debe ser de fácil implantación y aplicable en las organizaciones, permitiendo a estas afrontar con éxito el desarrollo de sus negocios, con una mejor calidad, reduciendo los costes de operación y empleando el menor tiempo posible. La validación de la metodología propuesta se realizó a través de una encuesta online y un estudio de casos. En la encuesta de validación participaron 42 altos ejecutivos de diferentes empresas y el estudio de casos se realizó con 5 empresas internacionales. Las respuestas de los estudios fueron analizados, para determinar la aceptación o el rechazo de la metodología propuesta por los participantes, confirmando la validez y confiabilidad del estudio. Este es uno de los primeros estudios reportado con evidencias empíricas para el proceso de la gestión de la demanda estratégica de la TI. Los resultados de esta investigación han sido publicados en revistas y congresos internacionales. ABSTRACT In recent years, the globalized industrial development, diffusion and strategic use of IT in different sectors has grown exponentially. Proper use of IT has become a major concern for government bodies and organizations. Uncontrolled or mismanaged IT investments or improper IT use may compromise the achievement of an organization’s objectives, competitiveness and sustainability in the medium to long term. Business owners set out to use IT to outperform their competitors, enacting business processes effectively and efficiently. Many organizations have made significant investments in technology in order to achieve their aims. However, the deployment of these investments has not been managed properly in accordance with the policies and plans specified in the organizations’ business plans, and IT services have not been delivered in accordance with the specified objectives. This has generated significant losses and, worse still, has seriously damaged the image of organizations. Accordingly, we believe that IT strategic demand management is one of the key factors for business success which has not been overlooked by the boards of trustees or senior executives of organizations. The research begins with an extensive review of the literature. This review has identified two very important elements: IT demand and supply within the corporate governance of IT. We have found that information related to IT strategic demand management is scant. We conducted an exploratory study to learn how members of the board of directors and senior executives of an organization manage IT strategic demand. The survey, which was taken by 130 respondents, confirmed that standards or methodologies are needed to manage IT strategic demand. Based on the results, we have built a framework for the entire IT demand management process. The solution proposed in this thesis is to develop a methodology, combining and integrating frameworks and standards related to the corporate governance of IT. The proposed methodology is divided into three phases. Each phase is composed of a series of key activities, and each key activity is further split into minor activities. We also establish the roles and responsibilities of senior executives for each of the key activities. This proposal should be easy to implement and apply in organizations, enabling corporations to successfully conduct better quality business, reduce operating costs and save time. The proposed methodology was validated by means of an online survey and a case study. The validation survey was completed by 42 senior executives from different companies, and the case study was conducted at five international companies. The study results were analysed to determine the acceptance or rejection of the proposed methodology by the participants, confirming the validity and reliability of the study. This is one the first studies to report empirical evidence for the process of IT strategic demand management. The results of this research have been published in international journals and conferences.