888 resultados para Save
Resumo:
Este Proyecto Fin de Grado está enmarcado dentro de las actividades del GRyS (Grupo de Redes y Servicios de Próxima Generación) con las Smart Grids. En la investigación actual sobre Smart Grids se pretenden alcanzar los siguientes objetivos: . Integrar fuentes de energías renovables de manera efectiva. . Aumentar la eficiencia en la gestión de la demanda y suministro de forma dinámica. . Reducir las emisiones de CO2 dando prioridad a fuentes de energía verdes. . Concienciar del consumo de energía mediante la monitorización de dispositivos y servicios. . Estimular el desarrollo de un mercado vanguardista de tecnologías energéticamente eficientes con nuevos modelos de negocio. Dentro del contexto de las Smart Grids, el interés del GRyS se extiende básicamente a la creación de middlewares semánticos y tecnologías afines, como las ontologías de servicios y las bases de datos semánticas. El objetivo de este Proyecto Fin de Grado ha sido diseñar y desarrollar una aplicación para dispositivos con sistema operativo Android, que implementa una interfaz gráfica y los métodos necesarios para obtener y representar información de registro de servicios de una plataforma SOA (Service-Oriented Architecture). La aplicación permite: . Representar información relativa a los servicios y dispositivos registrados en una Smart Grid. . Guardar, cargar y compartir por correo electrónico ficheros HTML con la información anterior. . Representar en un mapa la ubicación de los dispositivos. . Representar medidas (voltaje, temperatura, etc.) en tiempo real. . Aplicar filtros por identificador de dispositivo, modelo o fabricante. . Realizar consultas SPARQL a bases de datos semánticas. . Guardar y cagar consultas SPARQL en ficheros de texto almacenados en la tarjeta SD. La aplicación, desarrollada en Java, es de código libre y hace uso de tecnologías estándar y abiertas como HTML, XML, SPARQL y servicios RESTful. Se ha tenido ocasión de probarla con la infraestructura del proyecto europeo e-Gotham (Sustainable-Smart Grid Open System for the Aggregated Control, Monitoring and Management of Energy), en el que participan 17 socios de 5 países: España, Italia, Estonia, Finlandia y Noruega. En esta memoria se detalla el estudio realizado sobre el Estado del arte y las tecnologías utilizadas en el desarrollo del proyecto, la implementación, diseño y arquitectura de la aplicación, así como las pruebas realizadas y los resultados obtenidos. ABSTRACT. This Final Degree Project is framed within the activities of the GRyS (Grupo de Redes y Servicios de Próxima Generación) with the Smart Grids. Current research on Smart Grids aims to achieve the following objectives: . To effectively integrate renewable energy sources. . To increase management efficiency by dynamically matching demand and supply. . To reduce carbon emissions by giving priority to green energy sources. . To raise energy consumption awareness by monitoring products and services. . To stimulate the development of a leading-edge market for energy-efficient technologies with new business models. Within the context of the Smart Grids, the interest of the GRyS basically extends to the creation of semantic middleware and related technologies, such as service ontologies and semantic data bases. The objective of this Final Degree Project has been to design and develop an application for devices with Android operating system, which implements a graphical interface and methods to obtain and represent services registry information in a Service-Oriented Architecture (SOA) platform. The application allows users to: . Represent information related to services and devices registered in a Smart Grid. . Save, load and share HTML files with the above information by email. . Represent the location of devices on a map. . Represent measures (voltage, temperature, etc.) in real time. . Apply filters by device id, model or manufacturer. . SPARQL query semantic database. . Save and load SPARQL queries in text files stored on the SD card. The application, developed in Java, is open source and uses open standards such as HTML, XML, SPARQL and RESTful services technologies. It has been tested in a real environment using the e-Gotham European project infrastructure (Sustainable-Smart Grid Open System for the Aggregated Control, Monitoring and Management of Energy), which is participated by 17 partners from 5 countries: Spain, Italy, Estonia, Finland and Norway. This report details the study on the State of the art and the technologies used in the development of the project, implementation, design and architecture of the application, as well as the tests performed and the results obtained.
Resumo:
Actualmente las redes sociales son muy utilizadas en todo el mundo, existen diferentes tipos de redes sociales con las que podemos conectar con amigos, ampliar nuestra red de contactos profesionales, aprender cosas nuevas, etc. Su elevado uso las ha convertido en uno de los negocios más rentables en internet generando fortunas para sus creadores, principalmente, a través de la publicidad. Muchas redes sociales son creadas por empresas que cuentan con un equipo experto, pero otras muchas han sido creadas por personas comunes, con bajos conocimientos informáticos, muchos motivados en sus aficiones o carreras profesionales, que al no encontrar nada en la red que les resulte útil, han decidido desarrollar ellos mismos sus propias redes sociales con la ayuda de herramientas informáticas. Una de esas herramientas son los sistemas de gestión de contenidos (CMS), con los cuales ahorraremos mucho tiempo de desarrollo y no necesitaremos invertir grandes cantidades de dinero. Este proyecto trata, principalmente, de cómo crear redes sociales haciendo uso de estas herramientas y tiene el objetivo de ser lo suficientemente claro para que cualquier persona, sin importar su nivel de conocimientos técnicos, sea capaz de desarrollar sus ideas. En la primera parte del proyecto se habla sobre las redes sociales en general y el impacto de éstas en la sociedad actual, donde se ve que, actualmente, debido a la cantidad de redes sociales y a la accesibilidad móvil, el uso de las redes sociales es una cotidianidad. También se explican algunos métodos para obtener beneficios económicos de una red social y las ventajas que presentan las redes sociales específicas frente a las generalistas, concluyendo que las redes sociales específicas van ganando mayor protagonismo con el paso del tiempo. Además, se habla sobre la crítica de las redes sociales desde el punto de vista del usuario de la red, donde se resalta el tema de la administración de la publicidad y la privatización que han supuesto las redes sociales. Posteriormente se presenta una base teórica sobre las herramientas antes mencionadas, los CMS. Se explica su funcionamiento, clasificación y las ventajas que obtenemos con el uso de este software en nuestros proyectos, de los cuales destacan el corto tiempo de desarrollo y el bajo coste. Al final se eligen los CMS de estudio en este proyecto principalmente en base a tres criterios: licencia, cuota de uso y características de red social. En la segunda parte del proyecto se habla acerca de los CMS elegidos: WordPress con su plugin BuddyPress, Elgg, y Joomla con su plugin JomSocial. Se explican las características de cada uno de ellos y se muestran ejemplos de redes sociales reales hechas con estos CMS. En esta parte del proyecto se hace un uso práctico de estos CMS y se detalla paso a paso todo el proceso de creación de una red social (instalación, configuración y personalización de la red social) para cada CMS. El resultado son tres redes sociales hechas con distintos CMS, de los cuales se hace una valoración en base a la experiencia obtenida con el uso de los mismos, concluyéndose que JomSocial es una buena opción para redes sociales de uso generalista, pero para redes específicas son mejores tanto Elgg como BuddyPress, presentando este último una ligera ventaja por tener una gran comunidad en español. ABSTRACT. Nowadays social networks are widely used throughout the world, there are different types of social networks where you can connect with friends, expand your network of professional contacts, learn new things, etc. Its high usage has turned them into one of the most profitable businesses on Internet generating fortunes to its developers, mainly through advertising. Many social networks are developed by companies that count on an expert team, but many others have been created by ordinary people, with low computer skills, many of them motivated in their hobbies or careers, that did not find anything useful on Internet and decide to develop their own social networks with the help of software tools. One of those tools is a content management system (CMS), which will help us to save a lot of development time and we will not need to invest large amounts of money. This project is, mainly, about how to create social networks using these tools and aims to be clear enough to help anyone, regardless of their computer skills, to develop their ideas. The first part of the project is about social networks in general and the impact on today's society, where we can see that, due to the number of social networks and mobile accessibility, the use of social networks is daily. Also it explains some ways to obtain economic benefits from a social network and the advantages of specific social networks against generalist social networks, concluding that specific social networks are gaining more prominence with the passage of time. In addition, it refers on social networks critique from the point of view of social network users, where it highlights the issue of the advertising administration and privatization which have brought social networks. Subsequently, it presents a theoretical base of the above mentioned tools, CMS. Explains their operation, classification and the advantages we get with the use of this software in our projects, where the short development time and lower cost are highlighted. At the end the CMS studied in this project are chosen mainly based on three criteria: license, community size and social network features. The second part of the project is about the chosen CMS: WordPress with its plugin BuddyPress, Elgg, and Joomla with its plugin JomSocial. It explains features of all of them and shows examples of real social networks developed with these CMS. This part of the project is a practical use of these CMS and detailed step by step throughout the process of creating a social network (installation, configuration and customization of the social network) for each CMS. The result are three social networks made with different CMS, from which is made an assessment on the basis of the experience gained with the use of these software, concluding that JomSocial is a good choice to develop generalist social networks, but for specific social networks are better Elgg and BuddyPress, presenting the latter a slight advantage by having a large community in Spanish.
Resumo:
En la era actual de la tecnología en la que nos encontramos se han experimentado una infinidad de avances. En concreto el interés por las comunicaciones por satélite y los, cada vez más exigentes, terminales móviles han provocado que se inicie líneas de investigación en el campo de las telecomunicaciones. En concreto el estudio de las Antenas de Bocina utilizadas como alimentadores en sistemas de satélite han generado gran interés por la comunidad académica y empresarial. En este Proyecto Fin de Carrera se realiza el estudio del Método de Análisis Modal, método por el cual podemos realizar el estudio del comportamiento de los campos en recintos cerrados y con discontinuidades. El tipo de discontinuidades que se estudia son geometrías cilíndricas en las que se practica un incremento abrupto en el radio de salida. El estudio para el caso inverso, es decir geometrías cilíndricas con radios de salida menores, también lo abordamos, es por esto que es posible la formación de corrugaciones. El proyecto es una continuación de otro anterior que se centra en la optimización de bocinas cónicas lisas. Aunque el método se puede aplicar a cualquier tipo de geometría en este proyecto lo aplicaremos sólo a geometrías cilíndricas dado que diseñaremos un alimentador de bocina cilíndrica con paredes corrugadas. Para el estudio y la implementación de las distintas formulaciones matemáticas haremos uso de la herramienta de cálculo MatLab, es así que podremos generar resultados como el diagrama de radiación de la antena diseñada. Dichos resultados serían contrastados con otro programa de análisis comercial. Se observaría que finalmente el método del análisis modal es una herramienta de cálculo robusta y consistente, que nos permite ahorrar tiempos de cálculo y nos presenta resultados similares a otras herramientas comerciales de análisis electromagnético. ABSTRACT. Technologies sector has made great progress . Specifically, in the area of the satellite communications and mobile communications . These have begun investigation lines in telecommunication areas. Particularly, the study about horn antennas use how feeders in satellite communications have generated high interest at University community and the space companies. The Final Project study is focused in the Method of Modal Analysis, this method allows to study the performance of Electromagnetic fields in closed places with discontinuities. This Project continues other project, where studied the optimization for smoothwall conical horns. In this work we will use this study for implemented a antenna cylindrical corrugated. For the study and implementation of special mathematical equations is necessary to use a calculus mathematical tool like MatLab, this software allows to draw the radiation pattern for antennas design. It should be emphasized that all results will be compare with others commercial softwares for Electromagnetic studies. Finally, we take a look at the method of modal analysis is a robust and consistent mathematical tool that save simulation time and show us similar results to other commercial softwares.
Resumo:
El Grupo de Diseño Electrónico y Microelectrónico de la Universidad Politécnica de Madrid -GDEM- se dedica, entre otras cosas, al estudio y mejora del consumo en sistemas empotrados. Es en este lugar y sobre este tema donde el proyecto a exponer ha tomado forma y desarrollo. Según un artículo de la revista online Revista de Electrónica Embebida, un sistema empotrado o embebido es aquel “sistema controlado por un microprocesador y que gracias a la programación que incorpora o que se le debe incorporar, realiza una función específica para la que ha sido diseñado, integrando en su interior la mayoría de los elementos necesarios para realizar dicho función”. El porqué de estudiar sobre este tema responde a que, cada vez, hay mayor presencia de sistemas empotrados en nuestra vida cotidiana. Esto es debido a que se está tendiendo a dotar de “inteligencia” a todo lo que puedan hacer nuestra vida un poco más fácil. Nos podemos encontrar dichos sistemas en fábricas, oficinas de atención a los ciudadanos, sistemas de seguridad de hogar, relojes, móviles, lavadoras, hornos, aspiradores y un largo etcétera en cualquier aparato que nos podamos imaginar. A pesar de sus grandes ventajas, aún hay grandes inconvenientes. El mayor problema que supone a día de hoy es la autonomía del mismo sistema, ya que hablamos de aparatos que muchas veces están alimentados por baterías -para ayudar a su portabilidad–. Por esto, se está intentando dotar a dichos sistemas de una capacidad de ahorro de energía y toma de decisiones que podrían ayudar a duplicar la autonomía de dicha batería. Un ejemplo claro son los Smartphones de hoy en día, unos aparatos casi indispensables que pueden tener una autonomía de un día. Esto es poco práctico para el usuario en caso de viajes, trabajo u otras situaciones en las que se le dé mucho uso y no pueda tener acceso a una red eléctrica. Es por esto que surge la necesidad de investigar, sin necesidad de mejorar el hardware del sistema, una manera de mejorar esta situación. Este proyecto trabajará en esa línea creando un sistema automático de medida el cual generará las corrientes que servirán como entrada para verificar el sistema de adquisición que junto con la tarjeta Beagle Board permitirá la toma de decisiones en relación con el consumo de energía. Para realizar este sistema, nos ayudaremos de diferentes herramientas que podremos encontrar en el laboratorio del GDEM, como la fuente de alimentación Agilent y la Beagle Board –como principales herramientas de trabajo- . El objetivo principal será la simulación de unas señales que, después de pasar un proceso de conversión y tratado, harán la función de representación del consumo de cada una de las partes que pueden formar un sistema empotrado genérico. Por lo tanto, podemos decir que el sistema hará la funcionalidad de un banco de pruebas que ayudará a simular dicho consumo para que el microprocesador del sistema pueda llegar a tomar alguna decisión. ABSTRACT. The Electronic and Microelectronic Design Group of Universidad Politécnica de Madrid -GDEM- is in charge, between other issues, of improving the embedded system’s consumption. It is in this place and about this subject where the exposed project has taken shape and development. According to an article from de online magazine Revista de Electronica Embebida, an embedded system is “the one controlled by a microprocessor and, thanks to the programing that it includes, it carries out a specific function what it has been designed for, being integrated in it the most necessary elements for realizing the already said function”. The because of studying this subject, answers that each time there is more presence of the embedded system in our daily life. This is due to the tendency of providing “intelligence” to all what can make our lives easier. We can find this kind of systems in factories, offices, security systems, watchers, mobile phones, washing machines, ovens, hoovers and, definitely, in all kind of machines what we can think of. Despite its large vantages, there are still some inconveniences. Nowadays, the most important problem is the autonomy of the system itself when machines that have to be supplied by batteries –making easier the portability-. Therefore, this project is going after a save capacity of energy for the system as well as being able to take decisions in order to duplicate batteries’ autonomy. Smartphones are a clear example. They are a very successful product but the autonomy is just one day. This is not practical for users, at all, if they have to travel, to work or to do any activity that involves a huge use of the phone without a socket nearby. That is why the need of investigating a way to improve this situation. This project is working on this line, creating an automatic system that will generate the currents for verifying the acquisition system that, with the beagle board, will help taking decisions regarding the energy’s consumption. To carry out this system, we need different tools that we can find in the laboratory of the group previously mentioned, like power supply Agilent and the Beagle Board – as main working tools –. The main goal is the simulation of some signals that, after a conversion process, will represent de consumption of each of the parts in the embedded generic system. Therefore, the system will be a testing ground that simulate the consumption, once sent to the processor, to be processed and so the microprocessor system might take some decision.
Resumo:
En los últimos años, debido a la creciente preocupación por el calentamiento global y el cambio climático, uno de los retos más importantes a los que se enfrenta nuestra sociedad es el uso eficiente y económico de energía así como la necesidad correspondiente de reducir los gases de efecto invernadero (GEI). Las tecnologías de mezclas semicalientes se han convertido en un nuevo e importante tema de investigación en el campo de los materiales para pavimentos ya que ofrece una solución potencial para la reducción del consumo energético y las emisiones de GEI durante la producción y puesta en obra de las mezclas bituminosas. Por otro lado, los pavimentos que contienen polvo de caucho procedente de neumático fuera de uso, al hacer uso productos de desecho, ahorran energía y recursos naturales. Estos pavimentos ofrecen una resistencia mejorada a la formación de roderas, a la fatiga y a la fisuración térmica, reducen los costes de mantenimiento y el ruido del tráfico así como prolongan la vida útil del pavimento. Sin embargo, estas mezclas presentan un importante inconveniente: la temperatura de fabricación se debe aumentar en comparación con las mezclas asfálticas convencionales, ya que la incorporación de caucho aumenta la viscosidad del ligante y, por lo tanto, se producen mayores cantidades de emisiones de GEI. En la presente Tesis, la tecnología de mezclas semicalientes con aditivos orgánicos (Sasobit, Asphaltan A, Asphaltan B, Licomont) se incorporó a la de betunes de alta viscosidad modificados con caucho (15% y 20% de caucho) con la finalidad de dar una solución a los inconvenientes de mezclas con caucho gracias a la utilización de aditivos reductores de la viscosidad. Para este fin, se estudió si sería posible obtener una producción más sostenible de mezclas con betunes de alto contenido en caucho sin afectar significativamente su nivel de rendimiento mecánico. La metodología aplicada para evaluar y comparar las características de las mezclas consistió en la realización de una serie de ensayos de laboratorio para betunes y mezclas con caucho y con aditivos de mezclas semicalientes y de un análisis del ciclo de vida híbrido de la producción de mezclas semicalientes teniendo en cuenta la papel del aditivo en la cadena de suministro con el fin de cuantificar con precisión los beneficios de esta tecnología. Los resultados del estudio indicaron que la incorporación de los aditivos permite reducir la viscosidad de los ligantes y, en consecuencia, las temperaturas de producción y de compactación de las mezclas. Por otro lado, aunque la adición de caucho mejoró significativamente el comportamiento mecánico de los ligantes a baja temperatura reduciendo la susceptibilidad al fenómeno de fisuración térmica, la adición de las ceras aumentó ligeramente la rigidez. Los resultados del estudio reológico mostraron que la adición de porcentajes crecientes de caucho mejoraban la resistencia del pavimento con respecto a la resistencia a la deformación permanente a altas temperaturas y a la fisuración térmica a bajas temperaturas. Además, se observó que los aditivos mejoran la resistencia a roderas y la elasticidad del pavimento al aumentar el módulo complejo a altas temperaturas y al disminuir del ángulo de fase. Por otra parte, el estudio reológico confirmó que los aditivos estudiados aumentan ligeramente la rigidez a bajas temperaturas. Los ensayos de fluencia llevados a cabo con el reómetro demostraron una vez más la mejora en la elasticidad y en la resistencia a la deformación permanente dada por la adición de las ceras. El estudio de mezclas con caucho y aditivos de mezclas semicalientes llevado a cabo demostró que las temperaturas de producción/compactación se pueden disminuir, que las mezclas no experimentarían escurrimiento, que los aditivos no cambian significativamente la resistencia conservada y que cumplen la sensibilidad al agua exigida. Además, los aditivos aumentaron el módulo de rigidez en algunos casos y mejoraron significativamente la resistencia a la deformación permanente. Asimismo, a excepción de uno de los aditivos, las mezclas con ceras tenían la misma o mayor resistencia a la fatiga en comparación con la mezcla control. Los resultados del análisis de ciclo de vida híbrido mostraron que la tecnología de mezclas semicalientes es capaz de ahorrar significativamente energía y reducir las emisiones de GEI, hasta un 18% y 20% respectivamente, en comparación con las mezclas de control. Sin embargo, en algunos de los casos estudiados, debido a la presencia de la cera, la temperatura de fabricación debe reducirse en un promedio de 8 ºC antes de que los beneficios de la reducción de emisiones y el consumo de combustible puedan ser obtenidos. Los principales sectores contribuyentes a los impactos ambientales generados en la fabricación de mezclas semicalientes fueron el sector de los combustibles, el de la minería y el de la construcción. Due to growing concerns over global warming and climate change in recent years, one of the most important challenges facing our society is the efficient and economic use of energy, and with it, the corresponding need to reduce greenhouse gas (GHG) emissions. The Warm Mix Asphalt (WMA) technology has become an important new research topic in the field of pavement materials as it offers a potential solution for the reduction of energy consumption and GHG emissions during the production and placement of asphalt mixtures. On the other hand, pavements containing crumb-rubber modified (CRM) binders save energy and natural resources by making use of waste products. These pavements offer an improved resistance to rutting, fatigue and thermal cracking; reduce traffic noise and maintenance costs and prolong pavement life. These mixtures, however, present one major drawback: the manufacturing temperature is higher compared to conventional asphalt mixtures as the rubber lends greater viscosity to the binder and, therefore, larger amounts of GHG emissions are produced. In this dissertation the WMA technology with organic additives (Sasobit, Asphaltan A, Asphaltan B and Licomont) was applied to CRM binders (15% and 20% of rubber) in order to offer a solution to the drawbacks of asphalt rubber (AR) mixtures thanks to the use of fluidifying additives. For this purpose, this study sought to determine if a more sustainable production of AR mixtures could be obtained without significantly affecting their level of mechanical performance. The methodology applied in order to evaluate and compare the performance of the mixtures consisted of carrying out several laboratory tests for the CRM binders and AR mixtures with WMA additives (AR-WMA mixtures) and a hybrid input-output-based life cycle assessment (hLCA) of the production of WMA. The results of the study indicated that the incorporation of the organic additives were able to reduce the viscosity of the binders and, consequently, the production and compaction temperatures. On the other hand, although the addition of rubber significantly improved the mechanical behaviour of the binders at low temperatures reducing the susceptibility to thermal cracking phenomena, the addition of the waxes slightly increased the stiffness. Master curves showed that the addition of increasing percentages of rubber improved the resistance of the pavement regarding both resistance to permanent deformation at high temperatures and thermal cracking at low temperatures. In addition, the waxes improved the rutting resistance and the elasticity as they increased the complex modulus at high temperatures and decreased the phase angle. Moreover, master curves also attest that the WMA additives studied increase the stiffness at low temperatures. The creep tests carried out proved once again the improvement in the elasticity and in the resistance to permanent deformation given by the addition of the waxes. The AR-WMA mixtures studied have shown that the production/compaction temperatures can be decreased, that the mixtures would not experience binder drainage, that the additives did not significantly change the retained resistance and fulfilled the water sensitivity required. Furthermore, the additives increased the stiffness modulus in some cases and significantly improved the permanent deformation resistance. Except for one of the additives, the waxes had the same or higher fatigue resistance compared to the control mixture. The results of the hLCA demonstrated that the WMA technology is able to significantly save energy and reduce GHG emissions, up to 18% and 20%, respectively, compared to the control mixtures. However, in some of the case studies, due to the presence of wax, the manufacturing temperature at the asphalt plant must be reduced by an average of 8ºC before the benefits of reduced emissions and fuel usage can be obtained. The results regarding the overall impacts generated using a detailed production layer decomposition indicated that fuel, mining and construction sectors are the main contributors to the environmental impacts of manufacturing WMA mixtures.
Resumo:
New technologies such as, the new Information and Communication Technology ICT, break new paths and redefines the way we understand business, the Cloud Computing is one of them. The on demand resource gathering and the per usage payment scheme are now commonplace, and allows companies to save on their ICT investments. Despite the importance of this issue, we still lack methodologies that help companies, to develop applications oriented for its exploitation in the Cloud. In this study we aim to fill this gap and propose a methodology for the development of ICT applications, which are directed towards a business model, and further outsourcing in the Cloud. In the former the Development of SOA applications, we take, as a baseline scenario, a business model from which to obtain a business process model. To this end, we use software engineering tools; and in the latter The Outsourcing we propose a guide that would facilitate uploading business models into the Cloud; to this end we describe a SOA governance model, which controls the SOA. Additionally we propose a Cloud government that integrates Service Level Agreements SLAs, plus SOA governance, and Cloud architecture. Finally we apply our methodology in an example illustrating our proposal. We believe that our proposal can be used as a guide/pattern for the development of business applications.
Resumo:
In the last decade energy utility sector has undergone major changes in terms of liberalization, increased competition, efforts in improving energy efficiency, and in new technological solution such as smart meter and grid operations. There are new information technology solutions (e.g. Advanced Metering Infrastructure /AMI ) on the horizon that will not only introduce new technical and organizational concepts, but have a very strong potential to radically change modus operandi of utility companies. Coordinated, multi-utility programs can help accelerate the development and market success of new high-efficiency technologies. These programs provide opportunities for researchers to develop new high-efficiency equipment for manufacturers to sell this new equipment with utility help, for utilities to increase the amount of energy they save from incentive programs, and for consumers to benefit from lower utility bills and a cleaner environment (as energy is reduced, pollutants produced at power plants decline).
Resumo:
Evaluating and measuring the pedagogical quality of Learning Objects is essential for achieving a successful web-based education. On one hand, teachers need some assurance of quality of the teaching resources before making them part of the curriculum. On the other hand, Learning Object Repositories need to include quality information into the ranking metrics used by the search engines in order to save users time when searching. For these reasons, several models such as LORI (Learning Object Review Instrument) have been proposed to evaluate Learning Object quality from a pedagogical perspective. However, no much effort has been put in defining and evaluating quality metrics based on those models. This paper proposes and evaluates a set of pedagogical quality metrics based on LORI. The work exposed in this paper shows that these metrics can be effectively and reliably used to provide quality-based sorting of search results. Besides, it strongly evidences that the evaluation of Learning Objects from a pedagogical perspective can notably enhance Learning Object search if suitable evaluations models and quality metrics are used. An evaluation of the LORI model is also described. Finally, all the presented metrics are compared and a discussion on their weaknesses and strengths is provided.
Resumo:
In current industrial environments there is an increasing need for practical and inexpensive quality control systems to detect the foreign food materials in powder food processing lines. This demand is especially important for the detection of product adulteration with traces of highly allergenic products, such as peanuts and tree nuts. Manufacturing industries dealing with the processing of multiple powder food products present a substantial risk for the contamination of powder foods with traces of tree nuts and other adulterants, which might result in unintentional ingestion of nuts by the sensitised population. Hence, the need for an in-line system to detect nut traces at the early stages of food manufacturing is of crucial importance. In this present work, a feasibility study of a spectral index for revealing adulteration of tree nut and peanut traces in wheat flour samples with hyperspectral images is reported. The main nuts responsible for allergenic reactions considered in this work were peanut, hazelnut and walnut. Enhanced contrast between nuts and wheat flour was obtained after the application of the index. Furthermore, the segmentation of these images by selecting different thresholds for different nut and flour mixtures allowed the identification of nut traces in the samples. Pixels identified as nuts were counted and compared with the actual percentage of peanut adulteration. As a result, the multispectral system was able to detect and provide good visualisation of tree nut and peanut trace levels down to 0.01% by weight. In this context, multispectral imaging could operate in conjuction with chemical procedures, such as Real Time Polymerase Chain Reaction and Enzyme-Linked Immunosorbent Assay to save time, money and skilled labour on product quality control. This approach could enable not only a few selected samples to be assessed but also to extensively incorporate quality control surveyance on product processing lines.
Resumo:
Throughout history, humans have cyclically return to their old traditions such as the organic orchards. Nowadays, these have been integrated into the modern cities and could supply fresh vegetables to the daily food improving human health. Organic orchards grow crops without pesticides and artificial fertilizers thus, they are respectful with the environment and guarantee the food's safety . In modern society, the application of new technology is a must, in this case to obtain an efficient irrigation. In order to monitor a proper irrigation and save water and energy, soil water content probes are used to measure soil water content. Among them, capacitive probes ,monitored with a specific data logger, are typically used. Most of them, specially the data loggers, are expensive and in many cases are not used. In this work, we have applied the open hardware Arduino to build and program a low cost datalogger for the programming of irrigation in an experimental organic orchard. Results showed that the application of such as low cost technology, which is easily available in the market and easy to understand, everyone can built and program its own device helping in managing water resources in organic orchards .
Resumo:
In current industrial environments there is an increasing need for practical and inexpensive quality control systems to detect the foreign food materials in powder food processing lines. This demand is especially important for the detection of product adulteration with traces of highly allergenic products, such as peanuts and tree nuts. Manufacturing industries dealing with the processing of multiple powder food products present a substantial risk for the contamination of powder foods with traces of tree nuts and other adulterants, which might result in unintentional ingestion of nuts by the sensitised population. Hence, the need for an in-line system to detect nut traces at the early stages of food manufacturing is of crucial importance. In this present work, a feasibility study of a spectral index for revealing adulteration of tree nut and peanut traces in wheat flour samples with hyperspectral images is reported. The main nuts responsible for allergenic reactions considered in this work were peanut, hazelnut and walnut. Enhanced contrast between nuts and wheat flour was obtained after the application of the index. Furthermore, the segmentation of these images by selecting different thresholds for different nut and flour mixtures allowed the identification of nut traces in the samples. Pixels identified as nuts were counted and with the actual percentage of peanut adulteration. As a result, the multispectral system was able to detect and provide good visualisation of tree nut and peanut trace levels down to 0.01% by weight. In this context, multispectral imaging could operate in conjuction with chemical procedures, such as Real Time Polymerase Chain Reaction and Enzyme-Linked Immunosorbent Assay to save time, money and skilled labour on product quality control. This approach could enable not only a few selected samples to be assessed but also to extensively incorporate quality control surveyance on product processing lines.
Resumo:
El auge del "Internet de las Cosas" (IoT, "Internet of Things") y sus tecnologías asociadas han permitido su aplicación en diversos dominios de la aplicación, entre los que se encuentran la monitorización de ecosistemas forestales, la gestión de catástrofes y emergencias, la domótica, la automatización industrial, los servicios para ciudades inteligentes, la eficiencia energética de edificios, la detección de intrusos, la gestión de desastres y emergencias o la monitorización de señales corporales, entre muchas otras. La desventaja de una red IoT es que una vez desplegada, ésta queda desatendida, es decir queda sujeta, entre otras cosas, a condiciones climáticas cambiantes y expuestas a catástrofes naturales, fallos de software o hardware, o ataques maliciosos de terceros, por lo que se puede considerar que dichas redes son propensas a fallos. El principal requisito de los nodos constituyentes de una red IoT es que estos deben ser capaces de seguir funcionando a pesar de sufrir errores en el propio sistema. La capacidad de la red para recuperarse ante fallos internos y externos inesperados es lo que se conoce actualmente como "Resiliencia" de la red. Por tanto, a la hora de diseñar y desplegar aplicaciones o servicios para IoT, se espera que la red sea tolerante a fallos, que sea auto-configurable, auto-adaptable, auto-optimizable con respecto a nuevas condiciones que puedan aparecer durante su ejecución. Esto lleva al análisis de un problema fundamental en el estudio de las redes IoT, el problema de la "Conectividad". Se dice que una red está conectada si todo par de nodos en la red son capaces de encontrar al menos un camino de comunicación entre ambos. Sin embargo, la red puede desconectarse debido a varias razones, como que se agote la batería, que un nodo sea destruido, etc. Por tanto, se hace necesario gestionar la resiliencia de la red con el objeto de mantener la conectividad entre sus nodos, de tal manera que cada nodo IoT sea capaz de proveer servicios continuos, a otros nodos, a otras redes o, a otros servicios y aplicaciones. En este contexto, el objetivo principal de esta tesis doctoral se centra en el estudio del problema de conectividad IoT, más concretamente en el desarrollo de modelos para el análisis y gestión de la Resiliencia, llevado a la práctica a través de las redes WSN, con el fin de mejorar la capacidad la tolerancia a fallos de los nodos que componen la red. Este reto se aborda teniendo en cuenta dos enfoques distintos, por una parte, a diferencia de otro tipo de redes de dispositivos convencionales, los nodos en una red IoT son propensos a perder la conexión, debido a que se despliegan en entornos aislados, o en entornos con condiciones extremas; por otra parte, los nodos suelen ser recursos con bajas capacidades en términos de procesamiento, almacenamiento y batería, entre otros, por lo que requiere que el diseño de la gestión de su resiliencia sea ligero, distribuido y energéticamente eficiente. En este sentido, esta tesis desarrolla técnicas auto-adaptativas que permiten a una red IoT, desde la perspectiva del control de su topología, ser resiliente ante fallos en sus nodos. Para ello, se utilizan técnicas basadas en lógica difusa y técnicas de control proporcional, integral y derivativa (PID - "proportional-integral-derivative"), con el objeto de mejorar la conectividad de la red, teniendo en cuenta que el consumo de energía debe preservarse tanto como sea posible. De igual manera, se ha tenido en cuenta que el algoritmo de control debe ser distribuido debido a que, en general, los enfoques centralizados no suelen ser factibles a despliegues a gran escala. El presente trabajo de tesis implica varios retos que conciernen a la conectividad de red, entre los que se incluyen: la creación y el análisis de modelos matemáticos que describan la red, una propuesta de sistema de control auto-adaptativo en respuesta a fallos en los nodos, la optimización de los parámetros del sistema de control, la validación mediante una implementación siguiendo un enfoque de ingeniería del software y finalmente la evaluación en una aplicación real. Atendiendo a los retos anteriormente mencionados, el presente trabajo justifica, mediante una análisis matemático, la relación existente entre el "grado de un nodo" (definido como el número de nodos en la vecindad del nodo en cuestión) y la conectividad de la red, y prueba la eficacia de varios tipos de controladores que permiten ajustar la potencia de trasmisión de los nodos de red en respuesta a eventuales fallos, teniendo en cuenta el consumo de energía como parte de los objetivos de control. Así mismo, este trabajo realiza una evaluación y comparación con otros algoritmos representativos; en donde se demuestra que el enfoque desarrollado es más tolerante a fallos aleatorios en los nodos de la red, así como en su eficiencia energética. Adicionalmente, el uso de algoritmos bioinspirados ha permitido la optimización de los parámetros de control de redes dinámicas de gran tamaño. Con respecto a la implementación en un sistema real, se han integrado las propuestas de esta tesis en un modelo de programación OSGi ("Open Services Gateway Initiative") con el objeto de crear un middleware auto-adaptativo que mejore la gestión de la resiliencia, especialmente la reconfiguración en tiempo de ejecución de componentes software cuando se ha producido un fallo. Como conclusión, los resultados de esta tesis doctoral contribuyen a la investigación teórica y, a la aplicación práctica del control resiliente de la topología en redes distribuidas de gran tamaño. Los diseños y algoritmos presentados pueden ser vistos como una prueba novedosa de algunas técnicas para la próxima era de IoT. A continuación, se enuncian de forma resumida las principales contribuciones de esta tesis: (1) Se han analizado matemáticamente propiedades relacionadas con la conectividad de la red. Se estudia, por ejemplo, cómo varía la probabilidad de conexión de la red al modificar el alcance de comunicación de los nodos, así como cuál es el mínimo número de nodos que hay que añadir al sistema desconectado para su re-conexión. (2) Se han propuesto sistemas de control basados en lógica difusa para alcanzar el grado de los nodos deseado, manteniendo la conectividad completa de la red. Se han evaluado diferentes tipos de controladores basados en lógica difusa mediante simulaciones, y los resultados se han comparado con otros algoritmos representativos. (3) Se ha investigado más a fondo, dando un enfoque más simple y aplicable, el sistema de control de doble bucle, y sus parámetros de control se han optimizado empleando algoritmos heurísticos como el método de la entropía cruzada (CE, "Cross Entropy"), la optimización por enjambre de partículas (PSO, "Particle Swarm Optimization"), y la evolución diferencial (DE, "Differential Evolution"). (4) Se han evaluado mediante simulación, la mayoría de los diseños aquí presentados; además, parte de los trabajos se han implementado y validado en una aplicación real combinando técnicas de software auto-adaptativo, como por ejemplo las de una arquitectura orientada a servicios (SOA, "Service-Oriented Architecture"). ABSTRACT The advent of the Internet of Things (IoT) enables a tremendous number of applications, such as forest monitoring, disaster management, home automation, factory automation, smart city, etc. However, various kinds of unexpected disturbances may cause node failure in the IoT, for example battery depletion, software/hardware malfunction issues and malicious attacks. So, it can be considered that the IoT is prone to failure. The ability of the network to recover from unexpected internal and external failures is known as "resilience" of the network. Resilience usually serves as an important non-functional requirement when designing IoT, which can further be broken down into "self-*" properties, such as self-adaptive, self-healing, self-configuring, self-optimization, etc. One of the consequences that node failure brings to the IoT is that some nodes may be disconnected from others, such that they are not capable of providing continuous services for other nodes, networks, and applications. In this sense, the main objective of this dissertation focuses on the IoT connectivity problem. A network is regarded as connected if any pair of different nodes can communicate with each other either directly or via a limited number of intermediate nodes. More specifically, this thesis focuses on the development of models for analysis and management of resilience, implemented through the Wireless Sensor Networks (WSNs), which is a challenging task. On the one hand, unlike other conventional network devices, nodes in the IoT are more likely to be disconnected from each other due to their deployment in a hostile or isolated environment. On the other hand, nodes are resource-constrained in terms of limited processing capability, storage and battery capacity, which requires that the design of the resilience management for IoT has to be lightweight, distributed and energy-efficient. In this context, the thesis presents self-adaptive techniques for IoT, with the aim of making the IoT resilient against node failures from the network topology control point of view. The fuzzy-logic and proportional-integral-derivative (PID) control techniques are leveraged to improve the network connectivity of the IoT in response to node failures, meanwhile taking into consideration that energy consumption must be preserved as much as possible. The control algorithm itself is designed to be distributed, because the centralized approaches are usually not feasible in large scale IoT deployments. The thesis involves various aspects concerning network connectivity, including: creation and analysis of mathematical models describing the network, proposing self-adaptive control systems in response to node failures, control system parameter optimization, implementation using the software engineering approach, and evaluation in a real application. This thesis also justifies the relations between the "node degree" (the number of neighbor(s) of a node) and network connectivity through mathematic analysis, and proves the effectiveness of various types of controllers that can adjust power transmission of the IoT nodes in response to node failures. The controllers also take into consideration the energy consumption as part of the control goals. The evaluation is performed and comparison is made with other representative algorithms. The simulation results show that the proposals in this thesis can tolerate more random node failures and save more energy when compared with those representative algorithms. Additionally, the simulations demonstrate that the use of the bio-inspired algorithms allows optimizing the parameters of the controller. With respect to the implementation in a real system, the programming model called OSGi (Open Service Gateway Initiative) is integrated with the proposals in order to create a self-adaptive middleware, especially reconfiguring the software components at runtime when failures occur. The outcomes of this thesis contribute to theoretic research and practical applications of resilient topology control for large and distributed networks. The presented controller designs and optimization algorithms can be viewed as novel trials of the control and optimization techniques for the coming era of the IoT. The contributions of this thesis can be summarized as follows: (1) Mathematically, the fault-tolerant probability of a large-scale stochastic network is analyzed. It is studied how the probability of network connectivity depends on the communication range of the nodes, and what is the minimum number of neighbors to be added for network re-connection. (2) A fuzzy-logic control system is proposed, which obtains the desired node degree and in turn maintains the network connectivity when it is subject to node failures. There are different types of fuzzy-logic controllers evaluated by simulations, and the results demonstrate the improvement of fault-tolerant capability as compared to some other representative algorithms. (3) A simpler but more applicable approach, the two-loop control system is further investigated, and its control parameters are optimized by using some heuristic algorithms such as Cross Entropy (CE), Particle Swarm Optimization (PSO), and Differential Evolution (DE). (4) Most of the designs are evaluated by means of simulations, but part of the proposals are implemented and tested in a real-world application by combining the self-adaptive software technique and the control algorithms which are presented in this thesis.
Resumo:
Tradicionalmente, los entornos virtuales se han relacionado o vinculado de forma muy estrecha con campos como el diseño de escenarios tridimensionales o los videojuegos; dejando poco margen a poder pensar en sus aplicaciones en otros ámbitos. Sin embargo, estas tendencias pueden cambiar en tanto se demuestre que las aplicaciones y ventajas de estas facilidades software, se pueden extrapolar a su uso en el ámbito de la enseñanza y el aprendizaje. Estas aplicaciones son los conocidos como Entornos Virtuales Inteligentes (EVI); los cuales, tratan de usar un entorno virtual para llevar a cabo labores de enseñanza y tutoría, aportando ventajas como simulación de entornos peligrosos o tutorización personalizada; cosa que no podemos encontrar en la mayoría de los casos de las situaciones de enseñanza reales. Este trabajo trata de dar solución a una de las problemáticas que se plantean a la hora de trabajar con cualquier entorno virtual con el que nos encontremos y prepararlo para su cometido, sobre todo en aquellos enfocados a la enseñanza: dotar de forma automática e inteligente de una semántica propia a cada uno de los objetos que se encuentran en un entorno virtual y almacenar esta información para su posterior consulta o uso para otras tareas. Esto quiere decir que el objetivo principal de este trabajo, es el proceso de recolección de información que se considera importante de los objetos de los entornos virtuales, como pueden ser sus aspectos de la forma, tamaño o color. Aspectos que, por otra parte, son realmente importantes para poder caracterizar los objetos y hacerlos únicos en un entorno virtual donde, a priori, todos los objetos son los mismos a ojos de un ordenador. Este trabajo que puede parecer trivial en un principio, no lo es tanto; y servirá de sustento fundamental para que otras aplicaciones futuras o ya existentes puedan realizar sus tareas. Una de estas tareas pudiera ser la generación de indicaciones en lenguaje natural para guiar a usuarios a localizar objetos en un entorno virtual, como es el caso del proyecto LORO sobre el que se engloba este trabajo. Algunos ejemplos de uso de esta tarea pueden ser desde ayudar a cualquier usuario a encontrar sus llaves en su propia casa a ayudar a un cirujano a localizar cierta herramienta en un quirófano. Para ello, es indispensable conocer la semántica e información relevante de cada uno de los objetos que se presentan en la escena y diferenciarlos claramente del resto. La solución propuesta se trata de una completa aplicación integrada en el motor de videojuegos y escenarios 3D de mayor soporte del mundo como es Unity 3D, el cual se interrelaciona con ontologías para poder guardar la información de los objetos de cada escena. Esto hace que la aplicación tenga una potencial difusión, gracias a las herramientas antes mencionadas para su desarrollo y a que está pensada para tanto el usuario experto como el usuario común.---ABSTRACT---Traditionally, virtual environments have been related to tridimensional design and videogames; leaving a little margin to think about its applications in other fields. However, this tendencies can be changed as soon as it is proven that the applications and advantages of this software can be taken to the learning and teaching environment. This applications are known as intelligent virtual environments, these use the virtual environment to perform teaching and tutoring tasks; tasks we cannot find in most real life teaching situations. This project aims to give a solution to one of the problematics that appears when someone works with any virtual environments we may encounter and prepare it for its duty, mainly those environments dedicated to teaching: automatically and intelligently give its own semantic to the objects that are in any virtual environment and save this information for its posterior query or use in other tasks. The main purpose of this project is the information recollection process that considers the different important facts about the objects that are in the virtual environments, such as their shape, size or color. Facts that are very important for characterizing the objects; to make them unique in the environment where the objects are all the same to the computer’s eye. This project may seem banal in the beginning, but it is not, it will be the fundamental base for future applications. One of this applications may be a natural language indicator generator for guiding users to locate objects in a virtual environment, such as the LORO project, where this project is included. Some examples of the use of this task are: helping any user to find the keys of his house, helping a surgeon to find a tool in an operation room… For this goals, it is very important to know the semantics and the relevant information of each object of the scenario and differentiate each one of them from the rest. The solution for this proposal is a fully integrated application in the videogame and Unity 3D engine that is related to ontologies so it can save the object’s information in every scenario. The previously mentioned tools, as well as the idea that this application is made for an expert user as well as for a common user, make the application more spreadable.
Resumo:
Los flujos de trabajo científicos han sido adoptados durante la última década para representar los métodos computacionales utilizados en experimentos in silico, así como para dar soporte a sus publicaciones asociadas. Dichos flujos de trabajo han demostrado ser útiles para compartir y reproducir experimentos científicos, permitiendo a investigadores visualizar, depurar y ahorrar tiempo a la hora de re-ejecutar un trabajo realizado con anterioridad. Sin embargo, los flujos de trabajo científicos pueden ser en ocasiones difíciles de entender y reutilizar. Esto es debido a impedimentos como el gran número de flujos de trabajo existentes en repositorios, su heterogeneidad o la falta generalizada de documentación y ejemplos de uso. Además, dado que normalmente es posible implementar un mismo método utilizando algoritmos o técnicas distintas, flujos de trabajo aparentemente distintos pueden estar relacionados a un determinado nivel de abstracción, basándose, por ejemplo, en su funcionalidad común. Esta tesis se centra en la reutilización de flujos de trabajo y su abstracción mediante la exploración de relaciones entre los flujos de trabajo de un repositorio y la extracción de abstracciones que podrían ayudar a la hora de reutilizar otros flujos de trabajo existentes. Para ello, se propone un modelo simple de representación de flujos de trabajo y sus ejecuciones, se analizan las abstracciones típicas que se pueden encontrar en los repositorios de flujos de trabajo, se exploran las prácticas habituales de los usuarios a la hora de reutilizar flujos de trabajo existentes y se describe un método para descubrir abstracciones útiles para usuarios, basadas en técnicas existentes de teoría de grafos. Los resultados obtenidos exponen las abstracciones y prácticas comunes de usuarios en términos de reutilización de flujos de trabajo, y muestran cómo las abstracciones que se extraen automáticamente tienen potencial para ser reutilizadas por usuarios que buscan diseñar nuevos flujos de trabajo. Abstract Scientific workflows have been adopted in the last decade to represent the computational methods used in in silico scientific experiments and their associated research products. Scientific workflows have demonstrated to be useful for sharing and reproducing scientific experiments, allowing scientists to visualize, debug and save time when re-executing previous work. However, scientific workflows may be difficult to understand and reuse. The large amount of available workflows in repositories, together with their heterogeneity and lack of documentation and usage examples may become an obstacle for a scientist aiming to reuse the work from other scientists. Furthermore, given that it is often possible to implement a method using different algorithms or techniques, seemingly disparate workflows may be related at a higher level of abstraction, based on their common functionality. In this thesis we address the issue of reusability and abstraction by exploring how workflows relate to one another in a workflow repository, mining abstractions that may be helpful for workflow reuse. In order to do so, we propose a simple model for representing and relating workflows and their executions, we analyze the typical common abstractions that can be found in workflow repositories, we explore the current practices of users regarding workflow reuse and we describe a method for discovering useful abstractions for workflows based on existing graph mining techniques. Our results expose the common abstractions and practices of users in terms of workflow reuse, and show how our proposed abstractions have potential to become useful for users designing new workflows.
Resumo:
El consumo de energía es responsable de una parte importante de las emisiones a la atmósfera de CO2, que es uno de los principales causantes del efecto invernadero en nuestro planeta. El aprovechamiento de la energía solar para la producción de agua caliente, permite economizar energía y disminuir el impacto del consumo energético sobre el medio ambiente y por tanto un menor impacto medioambiental. El objetivo de la presente investigación consiste en estudiar el aprovechamiento solar para el calentamiento de los fangos en los digestores anaerobios mediante agua caliente circulando en el interior de un serpentín que rodea la superficie de dicho digestor, como apoyo a los métodos convencionales del calentamiento de fangos como la resistencia eléctrica o el intercambiador de calor mediante la energía obtenida por el gas metano producido en la digestión anaerobia. Para el estudio se utilizaron 3 digestores, dos delos cuales se calentaron con agua caliente en el interior de un serpentín (uno aislado mediante una capa de fibra de vidrio y poliuretano y otro sin aislar).El tercer digestor no tenía calentamiento exterior con el objetivo de observar su comportamiento y comparar su evolución con el resto de los digestores .La comparación de los digestores 1 y 2 nos permitió estudiar la conveniencia de proveer de aislamiento al digestor. La transferencia de calor mediante serpentín de cobre dio valores comprendidos entre 83 y 92%. La aplicación de la instalación a una depuradora a escala real para mantenimiento en el interior del digestor a T=32ºC en diferentes climas: climas templados, cálidos y fríos, consistió en el cálculo de la superficie de colectores solares y superficie de serpentín necesario para cubrir las necesidades energéticas anuales de dicho digestor, así como el estudio de rentabilidad de la instalación, dando los mejores resultados para climas cálidos con períodos de retorno de 12 años y una tasa interna de rentabilidad (TIR) del 16% obteniendo una cobertura anual del 79% de las necesidades energéticas con energía solar térmica. Energy consumption accounts for a significant part of the emissions of CO2, which is one of the main causes of the greenhouse effect on our planet. The use of solar energy for hot water production. can save energy and reduce the impact of energy consumption on the environment and therefore a reduced environmental impact. The objective of this research is to study the solar utilization for heating the sludge in anaerobic digesters by hot water circulating inside a coil surrounding the surface of digester, to support conventional heating methods sludge as the electrical resistance or heat exchanger by energy generated by the methane gas produced in the anaerobic digestion. To study 3 digesters used two models which are heated with hot water within a coil (one insulated by a layer of fiberglass and polyurethane and other uninsulated) .The third digester had no external heating in order to observe their behavior and compare their evolution with the rest of the .The comparison digesters digesters 1 and 2 allowed us to study the advisability of providing insulation to the digester. Heat transfer through copper coil gave values between 83 and 92%. The installation application to a treatment for maintaining full scale within the digester at T = 32ºC in different climates: temperate, warm and cold climates, consisted of calculating the surface area of solar collectors and coil required to cover the annual energy needs of the digester, and the study of profitability of the installation, giving the best results for hot climates with return periods of 12 years and an internal rate of return (IRR) of 16% achieving an annual coverage of 79 % of energy needs with solar energy.