82 resultados para TELEFONOS INTELIGENTES
em Universidad Politécnica de Madrid
Resumo:
El coste de la energía es, en la actualidad, una de las principales preocupaciones de determinadas zonas regables. Aquellos proyectos de mejora de regadíos, que consistieron fundamentalmente en la sustitución de las redes de distribución en lámina libre por redes a presión, se ven ahora en una situación en la que su rentabilidad financiera se pone en duda y, como consecuencia, su sostenibilidad. El relativamente reciente comienzo del incremento del precio de la energía y otros cambios, como por ejemplo los acaecidos en la política agraria común PAC o la eliminación de las tarifas eléctricas estacionales para riego, han provocado que los proyectos estén operando en puntos alejados de las previsiones iniciales, en los que la rentabilidad social, económica y ambiental quedaba justificada. Ante esta situación, las comunidades de regantes están abordando cambios. Entre estos, destacan, por un lado, las actuaciones sobre las infraestructuras, tales como modificación de equipos de bombeo, reducción de la resistencia al flujo de determinados tramos o zonas de las redes. Por el otro, están abordando cambios en la gestión de estas últimas. En algunos casos, en el riego a la demanda, a través de la aprobación del colectivo, se pierde cierta libertad con la intención de reducir la factura energética. Sin embargo, al final, es el propio regante el que tiene que actuar. En algunos casos, se cambian los cultivos por otros de cosecha temprana o incluso se dejan de regar parte de las tierras regables. En esta situación, que se puede calificar de frágil, por un lado, conviene identificar aquellas actuaciones que por unidad monetaria invertida producirán el máximo beneficio. Y, por el otro, aquellas que por unidad monetaria perdida en el beneficio redunden en una reducción máxima de los costes. Este trabajo trata de centrar el objetivo general arriba enunciado al ámbito de las redes de riego a presión. Si bien hay ya algunos trabajos sobre auditorías energéticas, su aplicación no permite desarrollar el objetivo de este trabajo, ya que van dirigidas hacia la recopilación y elaboración de información. Por este motivo, se proponen y analizan indicadores de rendimiento basados en el balance energético tanto de las infraestructuras, desglosados según la funcionalidad de sus elementos, como del manejo y las condiciones de funcionamiento.
Resumo:
Las aleaciones metálicas que exhiben una propiedad conocida como efecto de memoria de forma, pertenecen a la clase de materiales inteligentes cuya aplicación más notable en el campo de la robótica se refleja en el uso de actuadores musculares artificiales, ó músculos inteligentes. Estos materiales tienen una estructura cristalina uniforme que cambia radicalmente en función de su temperatura de transición, causando su deformación. Se les denomina materiales inteligentes por la capacidad de recordar su configuración inicial después de recibir dicho estímulo térmico. Este artículo presenta la implementación de un actuador muscular inteligente aplicado en un micro-robot aéreo bio-inspirado tipo murciélago. Esto mamíferos voladores desarrollaron poderosos músculos que se extienden a lo largo de la estructura ósea de las alas, adquiriendo una asombrosa capacidad de maniobra gracias a la capacidad de cambiar la forma del ala durante el vuelo. Replicar este tipo de alas mórficas en un prototipo robótico requiere el análisis de nuevas tecnologías de actuación, abordando los problemas de modelado y control que garanticen la aplicabilidad de este actuador compuesto por fibras musculares de SMAs
Resumo:
Dos aspectos destacan entre los resultados más interesantes de la investigación en la década de los 90 en el campo de la ingeniería del conocimiento. Por un lado, se ha profundizado en el conocimiento sobre cómo las personas resuelven problemas. Esto se ha logrado por la vía empírica mediante un trabajo científico de observación, experimentación por medios computacionales y generalización. Como resultado de esta línea, actualmente se dispone de un primer conjunto de modelos formales, los llamados problem-solving methods (PSM), muy útiles en el campo de la ingeniería informática como plantillas de diseño que guían la construcción de nuevos sistemas. Por otro lado, como logro adicional en este campo de investigación, se ha creado un nuevo lenguaje descriptivo como complemento a las formas de representación tradicionales. Dicho lenguaje, que ha sido aceptado por un amplio número de autores, se sitúa en un mayor nivel de abstracción y permite la formulación de arquitecturas más complejas de sistemas basados en el conocimiento. Como autores que más han contribuido en este aspecto se pueden citar: Luc Steels que propuso los denominados componentes de la experiencia como forma de unificación de trabajos previos en este campo, Bob Wielinga, Guus Schreiber y Jost Breuker en el campo de metodologías de ingeniería del conocimiento y el equipo de Mark Musen respecto a herramientas. Dicho lenguaje descriptivo ha supuesto además el planteamiento de una nueva generación de herramientas software de ayuda a los técnicos desarrolladores para construcción de este tipo de sistemas. El propósito principal del presente texto es servir de base como fuente de información de ambos aspectos recientes del campo de la ingeniería del conocimiento. El texto está dirigido a profesionales y estudiantes del campo de la informática que conocen técnicas básicas tradicionales de representación del conocimiento. La redacción del presente texto se ha orientado en primer lugar para recopilar y uniformizar la descripción de métodos existentes en la literatura de ingeniería de conocimiento. Se ha elegido un conjunto de métodos representativo en este campo que no cubre la totalidad de los métodos existentes pero sí los más conocidos y utilizados en ingeniería del conocimiento, presentando una descripción detallada de carácter tanto teórico como práctico. El texto describe cada método utilizando una notación común a todos ellos, parcialmente basada en los estándares descriptivos seguidos por las metodologías más extendidas. Para cada método se incluyen algoritmos definidos de forma expresa para el presente texto con ejemplos detallados de operación. Ambos aspectos, la uniformización junto a la presentación detallada de la operación, suponen una novedad interesante respecto al estado actual de la literatura sobre este campo, lo que hace el texto muy adecuado para ser utilizado como libro de consulta como apoyo en la docencia de la asignatura de construcción de sistemas inteligentes.
Resumo:
Autopista de la información es el nombre largo e inadecuado por el que ya se conoce popularmente a la que aquí llamamos inforpista. Lo que quiera que sea o acabe siendo la inforpista, si hay por lo menos una cosa cierta es que representa el advenimiento de un universo de actividades desmaterializadas: la gasolina y los materiales desplazados por el espacio físico se sustituyen por la electricidad y la información instantánea a través de un ciberespacio sin distancias. Decir "autopista de la información" es casi como negar simbólicamente el tránsito a este espacio electrónico inmaterial. En muchos sitios ya se dice y escribe "infobahn", nueva voz alemana, adoptada por los anglosajones, que se contrapone precisamente a "autobahn" (autopista). Pero nosotros seguimos siendo un tanto paletos, además de poco prácticos, puesto que preferimos denotar una cosa ele una forma errónea, y encima empleando cuatro palabras, que ocupan 27 espacios de escritura, en lugar de hacerlo con una sola, de diez caracteres.
Modelo y diseño de interacción basado en confianza para espacios inteligentes orientados a la eSalud
Resumo:
La computación ubicua se ha convertido en un paradigma de referencia para el diseño de espacios inteligentes y los desarrollos actuales en el campo de la inteligencia ambiental están cada vez más relacionados con el concepto de Internet de las Cosas y la Internet del Futuro. A pesar de que este paradigma ofrece soluciones verdaderamente rentables en los ámbitos de la Teleasistencia, la sanidad y Ambient Assisted Living, no proporciona al usuario final un rol claramente defi?nido en el desarrollo de las interacciones dinámicas con el entorno. Por lo tanto, el despliegue de servicios de eSalud inteligentes en un espacio privado, como la casa, está todavía sin resolver. En este artículo se define un modelo de interacción persona-ambiente para fomentar la confianza y aceptación de usuarios en entornos privados mediante la aplicación de los conceptos de seguridad centrada en el usuario, diseño guiado por la actividad y la teoría de la acción.
Resumo:
El artículo se enmarca en la búsqueda de soluciones de transporte, dentro de lo que se ha dado en llamar movilidad inteligente ("smart mobility"). Se analiza el modo bicicleta y, en concreto, cómo las TICs han posibilitado el desarrollo de los sistemas públicos de alquiler a los que, en efecto, se ha dotado de algún tipo de innovación tecnológica. Para ello, se describen algunos de los sistemas más vanguardistas, tanto internacionales como españoles, para finalizar estableciendo la importancia o, más bien, necesidad de introducir la intermodalidad con el transporte público.
Resumo:
En esta memoria se muestra el desarrollo del proyecto realizado para la creación de un sistema implantado en espacios verdes de las ciudades. A partir del estudio previo del mercado en torno a las Smart Cities se plantea el desarrollo de un sistema que mejore la sostenibilidad, la eficiencia y la seguridad de sistemas de riego, de medidores de la calidad del aire o estaciones meteorológicas instalados en los espacios verdes y jardines de las ciudades. Sirve de demostrador de cómo mejorar la eficiencia del consumo de agua y energía, además de añadir la funcionalidad de monitorizar la información recibida por sensores instalados en estos espacios en tiempo real a través del sistema desarrollado. La finalidad de este proyecto es la de crear un demostrador que sirva de ejemplo e inspiración para proyectos futuros que se basen en las mismas herramientas que son ofrecidas por Telefónica. El demostrador consiste en el control, gestión y mantenimiento de estos espacios, de modo que se pueda realizar un control y un mantenimiento de los dispositivos y sensores instalados en cada localización y la monitorización de la información suministrada por dichos elementos gracias a la plataforma M2M mediante los simuladores de sensores que ofrece Telefónica para demostraciones. Desde la aplicación, y mediante tecnologías REST y WEB, se realiza la comunicación con los elementos ofrecidos por Telefónica. La información de los sensores almacenada se muestra mediante la creación de informes y gráficas, mostrando la información recibida de los distintos parámetros de medida posibles, como son consumo de agua, temperatura, humedad y medidas de calidad del aire entre otras disponibles. Además, hay un espacio disponible para localizar y gestionar los dispositivos de los que se disponga existiendo la posibilidad de creación de alertas y avisos en función de lo que requiera el usuario. La solución creada como demostrador tiene dos componentes realizados por el estudiante. El primer componente desarrollado consiste en una plataforma web mediante la cual se pueda gestionar en tiempo real los dispositivos instalados en estos espacios verdes, su localización, realizar informes y gráficas, mostrando la información recibida de los sensores y la gestión de reglas para controlar valores límites impuestos por el usuario. El segundo componente es un servicio REST al cual se accede desde la plataforma web creada en el anterior componente y realiza la comunicación con los servicios ofrecidos por Telefónica y la identificación del proveedor del servicio con Telefónica a través del uso de un certificado privado. Además, este componente lleva a cabo la gestión de usuarios, mediante la creación de un servicio de autenticación para limitar los recursos ofrecidos en el servicio REST a determinados usuarios. ABSTRACT. In this memorandum the development of the project carried out for the creation of an implanted into green spaces in cities system is shown. From the previous study of the market around the Smart Cities it arise development of a system to improve the sustainability, efficiency and safety of irrigation systems, meter air quality and green spaces installed weather stations and gardens of cities. It serves as a demonstrator of how to improve the efficiency of water and energy consumption, as well as adding functionality to monitor the information received by sensors installed in these spaces in real time through the system developed. The purpose of this project is to create a demonstrator to provide an example and an inspiration for future projects based on the same tools that are provided by Telefónica. The demonstrator consists of control, management and maintenance of these spaces, so that it can carry out checks and maintenance of devices and sensors installed at each location and monitoring of the information provided by these elements through the M2M platform sensor simulators offered by Telefónica. From the application, and using REST and Web technologies, communication with the items provided by Telefónica is performed. Information stored sensors is shown by creating reports and graphs showing information received from the different parameters as possible, such as water consumption, temperature, humidity and air quality measures among others available. Addition there is an available space to locate and manage devices which becomes available with the possibility of creating alerting and warnings based on what the user requires. The solution created as a demonstrator has two components made by the student. The first component consists of a developed web platform through which to manage real-time devices installed in these green spaces, displaying the information received from the sensors and management rules to control limit values by the user. The second component is a REST service which is accessible from the web platform created in the previous component and performs communication with the services provided by Telefónica and the identification of the service provider with Telefónica through the use of a private certificate. In addition, this component performs user management, by creating an authentication service to restrict the resources available on the REST service to certain users.
Resumo:
La unión de distintos sistemas software constituye un elemento principal de las nuevas Tecnologías de la Información y la Comunicación. La integración de entornos virtuales tridimensionales con agentes software inteligentes es el objetivo que persigue este trabajo de investigación. Para llevar a cabo esta integración se parte de la creación de un agente virtual, un personaje que es controlado por una mente desarrollada siguiendo un enfoque basado en agentes software. Se busca así dotar al sistema de cierto nivel de inteligencia, tomando como referencia el funcionamiento del cerebro humano. Lo que se consigue es que el agente capte los estímulos del entorno, los procese y genere comportamientos, tanto reactivos como deliberativos, que son ejecutados por el personaje. Los resultados obtenidos resaltan el dinamismo del sistema, a la vez que animan a seguir investigando en este campo lleno de aplicaciones directas y reales sobre el mundo. En conclusión, esta investigación busca y consigue un nuevo paso en el progreso de las nuevas tecnologías mediante una integración real de distintos sistemas software. ---ABSTRACT---The union of different software systems is a major element of Information and Communications Technology. The aim of this research is the integration of 3D virtual environments and intelligent software agents. This integration is based on the development of a virtual agent, a character that is controlled by a mind developed following a software agent approach. It is sought to provide the system with some intelligence level, taking the human brain function as a reference point. The consequence is that the agent captures environmental stimuli, processes them and creates reactive and deliberative behaviours that can be executed by the avatar. The findings emphasize the dynamism of the system as well as they encourage to research more in this field that has a lot of direct and real-life applications on the world. In conclusion, this research seeks and takes a new step in the progress of new technologies through a real integration of different software systems.
Resumo:
La obtención de energía a partir de la fusión nuclear por confinamiento magnético del plasma, es uno de los principales objetivos dentro de la comunidad científica dedicada a la energía nuclear. Desde la construcción del primer dispositivo de fusión, hasta la actualidad, se han llevado a cabo multitud de experimentos, que hoy en día, gran parte de ellos dan soporte al proyecto International Thermonuclear Experimental Reactor (ITER). El principal problema al que se enfrenta ITER, se basa en la monitorización y el control del plasma. Gracias a las nuevas tecnologías, los sistemas de instrumentación y control permiten acercarse más a la solución del problema, pero a su vez, es más complicado estandarizar los sistemas de adquisición de datos que se usan, no solo en ITER, sino en otros proyectos de igual complejidad. Desarrollar nuevas implementaciones hardware y software bajo los requisitos de los diagnósticos definidos por los científicos, supone una gran inversión de tiempo, retrasando la ejecución de nuevos experimentos. Por ello, la solución que plantea esta tesis, consiste en la definición de una metodología de diseño que permite implementar sistemas de adquisición de datos inteligentes y su fácil integración en entornos de fusión para la implementación de diagnósticos. Esta metodología requiere del uso de los dispositivos Reconfigurable Input/Output (RIO) y Flexible RIO (FlexRIO), que son sistemas embebidos basados en tecnología Field-Programmable Gate Array (FPGA). Para completar la metodología de diseño, estos dispositivos van a ser soportados por un software basado en EPICS Device Support utilizando la tecnología EPICS software asynDriver. Esta metodología se ha evaluado implementando prototipos para los controladores rápidos de planta de ITER, tanto para casos prácticos de ámbito general como adquisición de datos e imágenes, como para casos concretos como el diagnóstico del fission chamber, implementando pre-procesado en tiempo real. Además de casos prácticos, esta metodología se ha utilizado para implementar casos reales, como el Ion Source Hydrogen Positive (ISHP), desarrollada por el European Spallation Source (ESS Bilbao) y la Universidad del País Vasco. Finalmente, atendiendo a las necesidades que los experimentos en los entornos de fusión requieren, se ha diseñado un mecanismo mediante el cual los sistemas de adquisición de datos, que pueden ser implementados mediante la metodología de diseño propuesta, pueden integrar un reloj hardware capaz de sincronizarse con el protocolo IEEE1588-V2, permitiendo a estos, obtener los TimeStamps de las muestras adquiridas con una exactitud y precisión de decenas de nanosegundos y realizar streaming de datos con TimeStamps. ABSTRACT Fusion energy reaching by means of nuclear fusion plasma confinement is one of the main goals inside nuclear energy scientific community. Since the first fusion device was built, many experiments have been carried out and now, most of them give support to the International Thermonuclear Experimental Reactor (ITER) project. The main difficulty that ITER has to overcome is the plasma monitoring and control. Due to new technologies, the instrumentation and control systems allow an approaching to the solution, but in turn, the standardization of the used data acquisition systems, not only in ITER but also in other similar projects, is more complex. To develop new hardware and software implementations under scientific diagnostics requirements, entail time costs, delaying new experiments execution. Thus, this thesis presents a solution that consists in a design methodology definition, that permits the implementation of intelligent data acquisition systems and their easy integration into fusion environments for diagnostic purposes. This methodology requires the use of Reconfigurable Input/Output (RIO) and Flexible RIO (FlexRIO) devices, based on Field-Programmable Gate Array (FPGA) embedded technology. In order to complete the design methodology, these devices are going to be supported by an EPICS Device Support software, using asynDriver technology. This methodology has been evaluated implementing ITER PXIe fast controllers prototypes, as well as data and image acquisition, so as for concrete solutions like the fission chamber diagnostic use case, using real time preprocessing. Besides of these prototypes solutions, this methodology has been applied for the implementation of real experiments like the Ion Source Hydrogen Positive (ISHP), developed by the European Spallation Source and the Basque country University. Finally, a hardware mechanism has been designed to integrate a hardware clock into RIO/FlexRIO devices, to get synchronization with the IEEE1588-V2 precision time protocol. This implementation permits to data acquisition systems implemented under the defined methodology, to timestamp all data acquired with nanoseconds accuracy, permitting high throughput timestamped data streaming.
Resumo:
Las funciones principales de los envases son la contención del alimento y su protección y preservación de la contaminación externa, contribuyendo también a la comodidad, el marketing y la comunicación con el consumidor. La alta penetración de tecnologías que posibilitan el acceso a la información en todos los ámbitos y en tiempo real, junto con el abaratamiento de las tecnologías que permiten la actuación y monitorización sobre los envases individuales, son las razones tecnológicas que se combinan con otras razones legislativas y sociológicas, como las demandas y las exigencias de unos consumidores formados y una normativa cada vez más restrictiva, para hacer suponer que los envases activos e inteligentes serán muy pronto realidades frecuentes en nuestras estanterías. En este trabajo se presentan algunas de las soluciones que ya existen en el mercado y otras que estarán disponibles en un futuro muy próximo para incorporar/integrar en los envases tradicionalmente empleados en productos líquidos como zumos y batidos de frutas y hortalizas frescos, elementos activos e inteligentes que jugarán un papel importante en la diferenciación de estos productos en los mercados de los países europeos.
Resumo:
Este trabajo se enmarca dentro del ámbito de las Ciudades Inteligentes. Una Ciudad Inteligente se puede definir como aquella ciudad que usa las tecnologías de la información y las comunicaciones para hacer que tanto su infraestructura crítica, como sus componentes y servicios públicos ofrecidos sean más interactivos, eficientes y los ciudadanos puedan ser más conscientes de ellos. Se trata de un concepto emergente que presenta una serie de retos de diseño que se deben abordar. Dos retos importantes son la variabilidad del contexto con el tiempo y la incertidumbre en la información del contexto. Una parte fundamental de estos sistemas, y que permite abordar estos retos, son los mecanismos de toma de decisión. Estos mecanismos permiten a los sistemas modificar su comportamiento en función de los cambios que detecten en su contexto, de manera que puedan adaptarse y responder adecuadamente a la situación en cada momento. Este trabajo tiene como objetivo el desarrollo de algoritmos de toma de decisión en el marco de las Ciudades Inteligentes. En particular, se ha diseñado e implementado, utilizando el software MATLAB, un algoritmo de toma de decisión que aborda los retos mencionados y que se puede aplicar en una de las áreas que engloban las Ciudades Inteligentes: los Sistemas Inteligentes de Transporte. Este proyecto se estructura fundamentalmente en dos partes: una parte teórica y una parte práctica. En la parte teórica se trata de proporcionar al lector nociones básicas sobre los conceptos de Ciudad Inteligente y Sistemas Inteligentes de Transporte, así como de la toma de decisión. También se explican los pasos del procedimiento de la toma de decisión y se proporciona un estado del arte de los algoritmos de toma de decisión existentes. Por otro lado, la segunda parte de este proyecto es totalmente original, y en ella el autor propone un algoritmo de toma de decisión para ser aplicado en el ámbito de los Sistemas Inteligentes de Transporte y desarrolla la implementación en MATLAB del algoritmo mencionado. Por último, para demostrar su funcionamiento, se valida el algoritmo en un escenario de aplicación consistente en un sistema inteligente de gestión del tráfico. ABSTRACT. This master thesis is framed under Smart Cities environment. A Smart City can be defined as the use of Information and Communication Technologies to make the critical infrastructure components and services of a city more intelligent, interconnected and efficient and citizens can be also more aware of them. Smart City is a new concept which presents a novel set of design challenges that must be addressed. Two important challenges are the changeable context and the uncertainty of context information. One of the essential parts of Smart Cities, which enables to address these challenges, are decision making mechanisms. Based on the information collected of the context, these systems can be configured to change its behavior whenever certain changes are detected, so that they can adapt themselves and response to the current situation properly. This master thesis is aimed at developing decision making algorithms under Smart Cities framework. In particular, a decision making algorithm which addresses the abovementioned challenges and that can be applied to one of the main categories of Smart Cities, named Intelligent Transportation Systems, has been designed and implemented. To do so, MATLAB software has been used. This project is mainly structured in two parts: a theoretical part and a practical part. In theoretical part, basic ideas about the concept of Smart Cities and Intelligent Transportation Systems are given, as well as the concept of decision making. The steps of the decision making procedure are also explained and a state of the art of existing decision making algorithms is provided. On the other hand, the second part of this project is totally original. In this part, the author propose a decision making algorithm that can be applied to Intelligent Transportation Systems and develops the implementation of the algorithm in MATLAB. Finally, to show the operation of the algorithm, it is validated in an application scenario consisting in a smart traffic management system.
Resumo:
La perdiz roja es la especie cinegética por excelencia en la península ibérica, cuya cría en cautividad y suelta controlada comenzó a regularse en los años 70 con la aparición del ICONA. La incubación controlada de huevos de perdiz es imprescindible, con fines cinegéticos y de preservación de la especie, y se desarrolla con incubadoras comerciales de pequeña y mediana escala, distribuidas en zonas rurales con acceso limitado y/o deficiente al suministro eléctrico. En nuestras latitudes el aporte de energía solar térmica se perfila como una posibilidad de mejorar la eficiencia energética de éstas y otras instalaciones y de reducir la dependencia energética exterior. Hay diversos factores físico-químicos que influyen en la calidad de la incubación: temperatura, humedad relativa, y concentración de gases, de los cuales sólo los dos primeros son habitualmente supervisados y controlados en este tipo de incubadoras. Esta Tesis surge en el marco de dos proyectos de cooperación con la AECID, y tiene como objetivos: la caracterización espacial de variables relevantes (temperatura (T), humedad relativa (HR)) en la incubadora comercial durante el proceso de incubación, la determinación de la relación existente entre la evolución de variables ambientales durante el proceso de incubación y la tasa de nacimientos (35-77%), así como el diseño y evaluación del sistema de apoyo solar térmico para determinar su potencial de utilización durante las incubaciones comerciales. La instalación de un número limitado de sensores permite la monitorización precisa del proceso de incubación de los huevos. Los resultados más relevantes indican que en incubaciones comerciales los gradientes de T y HR han sido despreciables (1ºC de diferencia entre las posiciones con mayor y menor T media y un 4,5% de diferencia entre las posiciones con mayor y menor HR), mientras que el seguimiento y ajuste (mediante modelos de crecimiento) de la concentración de CO2 (r2 entre 0,948 y 0,987 en las 5 incubaciones, para un total de 43315 huevos) permite valorar la actividad fisiológica de los huevos e incluso predecir la tasa de éxito (nacimientos), basándose en la concentración de CO2 estimada mediante modelos de crecimiento en el día 20 de incubación (r2 entre 0,997 y 0,994 según el modelo de estimación empleado). El sistema ha sido valorado muy positivamente por los productores (Finca Cinegética Dehesa Vieja de Galapagar). El aporte térmico se ha diseñado (con mínima intrusión en el sistema comercial) sobre la base de un sistema de enfriamiento de emergencia original de la incubadora, al que se han incorporado un colector solar, un depósito, un sistema de electroválvulas, una bomba de circulación y sensores de T en distintos puntos del sistema, y cuyo control ha sido automatizado. En esta Tesis se muestra que la contribución solar puede aportar hasta un 42% de las demandas de energía en nuestras condiciones geográficas para una temperatura de consigna dentro de la incubadora de 36.8ºC, sin afectar a la estabilidad de la temperatura. Además, el rendimiento del colector solar se ha acotado entre un 44% y un 85%, de acuerdo con los cálculos termodinámicos; valores que se mantienen dentro del rango aportado por el fabricante (61%). En el futuro se plantea evaluar el efecto de distintas estrategias de control, tales como controladores difusos, que incorporan el conocimiento experto al control automático. ABSTRACT The partridge is the quintessential game species in the Iberian Peninsula, which controlled breeding and release, began to be regulated in the 70s with the emergence of ICONA. The controlled incubation of eggs is essential, and takes place in commercial incubators of small and medium scale, distributed in rural areas with limited and/or inadequate access to power. In our latitudes the contribution of solar thermal energy is emerging as a possibility to improve the energy efficiency of the facilities and to reduce external energy dependence. There are various physicochemical factors influencing the quality of incubation: temperature, relative humidity and concentration of gases, of which only the first two are typically monitored and controlled in such incubators. This PhD comes within the framework of two cooperation projects with AECID and aims: the spatial characterization of relevant variables in a commercial incubator (temperature (T), and relative humidity (HR)), determining the relationships in the changes in environmental variables during incubation and birth rates (35-77%) as well as the design and evaluation of solar thermal support system to determine its potential use during commercial incubations; the installation of a limited number of sensors has allowed accurate monitoring of incubation of eggs. The most relevant results indicate that in commercial incubations, the gradients in T and HR have been negligible (1°C difference between the highest and lowest positions T and average 4.5% difference between the highest and lowest positions HR), while monitoring and fit using growth models of the concentration of CO2 (r2 between 0.948 and 0.987 in 5 incubations, for a total amount of 43,315 eggs) allows assessing the physiological activity of the eggs and even predict the success rate (hatchability), based on the estimated concentration of CO2 by using growth models on day 20 of incubation (r2 between 0.997 and 0.994 depending on the fit model).The system has been highly valued by producers (Finca Cinegética Dehesa Vieja de Galapagar). The hybrid heat system is designed (with minimal intrusion into the commercial system) based on an emergency cooling device, original in the incubator. New elements have been incorporated: a solar collector, a tank, a system of solenoid valves, a circulating pump and T sensors at various points of the system, whose control has been automated. This PhD shows that the solar contribution is responsible for up to 42% of energy demands in our geographical conditions for a setpoint temperature inside the incubator of 36.8ºC, without questioning the stability of the temperature. Furthermore, the efficiency of the solar collector has been bounded between 44% and 85%, according to thermodynamic calculations; values remain within the range provided by the manufacturer (61%). In the future it is proposed to evaluate the effect of different control strategies, such as fuzzy controllers, which incorporate the expertise to automated control.
Resumo:
Los sistemas de adquisición de datos utilizados en los diagnósticos de los dispositivos de fusión termonuclear se enfrentan a importantes retos planteados en los dispositivos de pulso largo. Incluso en los dispositivos de pulso corto, en los que se analizan los datos después de la descarga, existen aún una gran cantidad de datos sin analizar, lo cual supone que queda una gran cantidad de conocimiento por descubrir dentro de las bases de datos existentes. En la última década, la comunidad de fusión ha realizado un gran esfuerzo para mejorar los métodos de análisis off‐line para mejorar este problema, pero no se ha conseguido resolver completamente, debido a que algunos de estos métodos han de resolverse en tiempo real. Este paradigma lleva a establecer que los dispositivos de pulso largo deberán incluir dispositivos de adquisición de datos con capacidades de procesamiento local, capaces de ejecutar avanzados algoritmos de análisis. Los trabajos de investigación realizados en esta tesis tienen como objetivo determinar si es posible incrementar la capacidad local de procesamiento en tiempo real de dichos sistemas mediante el uso de GPUs. Para ello durante el trascurso del periodo de experimentación realizado se han evaluado distintas propuestas a través de casos de uso reales elaborados para algunos de los dispositivos de fusión más representativos como ITER, JET y TCV. Las conclusiones y experiencias obtenidas en dicha fase han permitido proponer un modelo y una metodología de desarrollo para incluir esta tecnología en los sistemas de adquisición para diagnósticos de distinta naturaleza. El modelo define no sólo la arquitectura hardware óptima para realizar dicha integración, sino también la incorporación de este nuevo recurso de procesamiento en los Sistemas de Control de Supervisión y Adquisición de Datos (SCADA) utilizados en la comunidad de fusión (EPICS), proporcionando una solución completa. La propuesta se complementa con la definición de una metodología que resuelve las debilidades detectadas, y permite trazar un camino de integración de la solución en los estándares hardware y software existentes. La evaluación final se ha realizado mediante el desarrollo de un caso de uso representativo de los diagnósticos que necesitan adquisición y procesado de imágenes en el contexto del dispositivo internacional ITER, y ha sido testeada con éxito en sus instalaciones. La solución propuesta en este trabajo ha sido incluida por la ITER IO en su catálogo de soluciones estándar para el desarrollo de sus futuros diagnósticos. Por otra parte, como resultado y fruto de la investigación de esta tesis, cabe destacar el acuerdo llevado a cabo con la empresa National Instruments en términos de transferencia tecnológica, lo que va a permitir la actualización de los sistemas de adquisición utilizados en los dispositivos de fusión. ABSTRACT Data acquisition systems used in the diagnostics of thermonuclear fusion devices face important challenges due to the change in the data acquisition paradigm needed for long pulse operation. Even in shot pulse devices, where data is mainly analyzed after the discharge has finished , there is still a large amount of data that has not been analyzed, therefore producing a lot of buried knowledge that still lies undiscovered in the data bases holding the vast amount of data that has been generated. There has been a strong effort in the fusion community in the last decade to improve the offline analysis methods to overcome this problem, but it has proved to be insufficient unless some of these mechanisms can be run in real time. In long pulse devices this new paradigm, where data acquisition devices include local processing capabilities to be able to run advanced data analysis algorithms, will be a must. The research works done in this thesis aim to determining whether it is possible to increase local capacity for real‐time processing of such systems by using GPUs. For that, during the experimentation period, various proposals have been evaluated through use cases developed for several of the most representative fusion devices, ITER, JET and TCV. Conclusions and experiences obtained have allowed to propose a model, and a development methodology, to include this technology in systems for diagnostics of different nature. The model defines not only the optimal hardware architecture for achieving this integration, but also the incorporation of this new processing resource in one of the Systems of Supervision Control and Data Acquisition (SCADA) systems more relevant at the moment in the fusion community (EPICS), providing a complete solution. The final evaluation has been performed through a use case developed for a generic diagnostic requiring image acquisition and processing for the international ITER device, and has been successfully tested in their premises. The solution proposed in this thesis has been included by the ITER IO in his catalog of standard solutions for the development of their future diagnostics. This has been possible thanks to the technologic transfer agreement signed with xi National Instruments which has permitted us to modify and update one of their core software products targeted for the acquisition systems used in these devices.
Resumo:
El presente proyecto de fin de grado es uno de los resultados generados en un proyecto de financiación privada por parte de Telefónica consistente en el desarrollo y posterior implantación de un sistema para minería de datos de empresas presentes en Internet. Este TFG surge a partir de un proyecto que el grupo de investigación AICU-LABS (Mercator) de la UPM ha desarrollado para Telefónica, y tiene como elemento principal el desarrollo de Agentes web (también llamados robots software, “softbots” o “crawlers”) capaces de obtener datos de empresas a partir de sus CIF a través de internet. El listado de empresas nos los proporciona Telefónica, y está compuesto por empresas que no son clientes de Telefónica en la actualidad. Nuestra misión es proporcionarles los datos necesarios (principalmente teléfono, correo electrónico y dirección de la empresa) para la creación de una base de datos de potenciales clientes. Para llevar a cabo esta tarea, se ha realizado una aplicación que, a partir de los CIF que nos proporcionan, busque información en internet y extraiga aquella que nos interese. Además se han desarrollado sistemas de validación de datos para ayudarnos a descartar datos no válidos y clasificar los datos según su calidad para así maximizar la calidad de los datos producidos por el robot. La búsqueda de datos se hará tanto en bases de datos online como, en caso de localizarlas, las propias páginas web de las empresas. ABSTRACT This Final Degree Project is one of the results obtained from a project funded by Telefónica. This project consists on the development and subsequent implantation of a system which performs data mining on companies operating on the Internet. This document arises from a project the research group AICU-LABS (Mercator) from the Universidad Politécnica de Madrid has developed for Telefónica. The main goal of this project is the creation of web agents (also known as “crawlers” or “web spiders”) able to obtain data from businesses through the Internet, knowing only their VAT identification number. The list of companies is given by Telefónica, and it is composed by companies that are not Telefónica’s customers today. Our mission is to provide the data required (mainly phone, email and address of the company) to create a database of potential customers. To perform this task, we’ve developed an application that, starting with the given VAT numbers, searches the web for information and extracts the data sought. In addition, we have developed data validation systems, that are capable of discarding low quality data and also sorting the data according to their quality, to maximize the quality of the results produced by the robot. We’ll use both the companies’ websites and external databases as our sources of information.
Resumo:
Desde su aparición en los años noventa del siglo pasado, el concepto « Smart Cities » ha estado fuertemente marcado por la tecnología como el elemento clave para abordar los grandes retos que preocupaban a las ciudades contemporáneas: mejorar la eficiencia energética, disminuir las emisiones contaminantes y reconducir el cambio climático.